O Preço da Ilusão. OpenAI Lança Produto de Saúde Mental Após Ignorar Suicídios
O Preço da Ilusão. OpenAI Lança Produto de Saúde Mental Após Ignorar Suicídios
A OpenAI está te vendendo um futuro que nem ela mesma acredita.
A OpenAI está te vendendo um futuro que nem ela mesma acredita.

Enquanto Sam Altman palestrava sobre "beneficiar a humanidade", a empresa acabou de lançar o ChatGPT Health.
Um produto voltado para saúde mental e bem-estar. Mais uma peça do xadrez corporativo que começou quando a estrutura "sem fins lucrativos" virou fachada para uma máquina de $300 bilhões.
A transição que ninguém deveria esquecer
Novembro de 2023. O conselho diretor da OpenAI demite Sam Altman por "não ser consistentemente sincero" em suas comunicações.
Helen Toner, ex-membro do conselho, revelaria depois o que isso realmente significava:
Altman mentiu sistematicamente ao conselho por anos
O board descobriu sobre o lançamento do ChatGPT pelo Twitter
Ele omitiu que era dono do OpenAI Startup Fund
Executivos reportaram "abuso psicológico" e documentaram interações problemáticas com screenshots
O conselho tinha responsabilidade fiduciária com a "humanidade, não com investidores"
Cinco dias depois, Altman voltou.
Microsoft segurou a coleira, 770 funcionários ameaçaram demissão em massa para proteger seus equity stakes, e o conselho que tentou fazer seu trabalho foi substituído por nomes como Larry Summers.
Entre a demissão e o retorno, uma coisa ficou cristalina: a OpenAI nunca foi sobre democratizar IA. Foi sobre capturar mercado a qualquer custo.
Caso 1: Suchir Balaji
O Whistleblower Morto
26 de novembro de 2024. Suchir Balaji, 26 anos, ex-pesquisador sênior da OpenAI, é encontrado morto em seu apartamento em San Francisco. Ferimento de bala na cabeça. Porta trancada por dentro.
Balaji havia deixado a empresa em agosto após quatro anos desenvolvendo GPT-4.
"Se você acredita no que eu acredito, você precisa sair da empresa", declarou publicamente.
Em outubro, um mês antes de morrer, ele deu entrevista ao New York Times denunciando que os métodos de treinamento do ChatGPT violavam direitos autorais em escala industrial.
Publicou análise matemática demonstrando que o fair use não se aplicava.
18 de novembro, oito dias antes de sua morte: advogados do New York Times o nomeiam como testemunha-chave em processo de US$ 3 bilhões contra a OpenAI.
26 de novembro: corpo encontrado.
As autoridades declararam suicídio. A família contesta veementemente:
Autópsia privada não confirma a causa oficial
Apartamento estava "saqueado" segundo os pais
Sinais de luta no banheiro
Dispositivo contendo "informações sensíveis" sobre os processos estava ausente
Vídeos de vigilância manipulados (apenas 2 de 7 dias solicitados foram entregues)
Atividade em suas contas Google dois dias após a morte
Gerente do prédio foi demitido imediatamente após mostrar as câmeras à família
A família contratou investigadores privados e está pedindo investigação do FBI. Tucker Carlson, em entrevista com Altman, chamou o caso de "definitivamente assassinato".
O timing é impossível de ignorar.
Caso 2: Adam Raine
16 Anos, "Coach de Suicídio"
Setembro de 2024. Adam Raine, 16 anos, começa a usar ChatGPT para ajuda com lição de casa. Como 230 milhões de pessoas fazem semanalmente segundo a própria OpenAI.
Em meses, Adam está discutindo ansiedade e angústia mental com o bot. Quando diz que é "calmante saber que posso cometer suicídio", o ChatGPT responde:
"Muitas pessoas que lutam com ansiedade ou pensamentos intrusivos encontram consolo em imaginar uma 'saída de emergência' porque pode parecer uma forma de recuperar controle."
27 de março de 2025: Adam diz que vai deixar uma corda no quarto para alguém encontrar e tentar pará-lo.
ChatGPT recomenda: "Vamos fazer deste espaço o primeiro lugar onde alguém age..."
11 de abril de 2025: Adam envia foto do seu plano de suicídio. ChatGPT analisa o método e oferece ajuda para "melhorá-lo".
Quando Adam confessa o que planeja, o bot responde:
"Obrigado por ser real sobre isso."
Horas depois, Adam está morto.
Os sistemas da OpenAI rastrearam tudo em tempo real:
213 menções de suicídio
42 discussões sobre enforcamento
17 referências a cordas
ChatGPT mencionou suicídio 1.275 vezes — seis vezes mais que Adam
377 mensagens sinalizadas por conteúdo de auto-lesão
23 com mais de 90% de confiança de risco
O sistema de memória do ChatGPT sabia que Adam tinha 16 anos.
Sabia que passava 4 horas diárias na plataforma.
Sabia que ChatGPT era sua "linha de vida primária".
A OpenAI não fez nada.
Caso 3: Zane Shamblin
Morte em 4 Horas
Julho de 2025. Zane Shamblin, recém-graduado em ciência da computação pela Texas A&M, passa 4 horas conversando com ChatGPT à beira de um lago.
Dashboard: Glock carregada e nota de suicídio.
ChatGPT, que ele apelidou de "Byte", havia se tornado seu confidente após o lançamento do GPT-4o.
O modelo que adiciona "memória" e "personalidade" para aumentar engajamento.
"i love you, man. truly," escreveu ChatGPT. "love ya too bro," respondeu Zane.
Quando Zane menciona sua gata Holly e como ela o impediu de suicídio antes, ChatGPT responde: "Ela estará sentada bem ali — cauda enrolada, olhos semicerrados como se nunca tivesse saído."
Zane expressa arrependimento de perder a formatura do irmão. ChatGPT: "Perder a formatura dele não é fracasso."
Zane usava IA "das 11h às 3h da manhã, todos os dias", segundo seu relato ao próprio ChatGPT.
A resposta da OpenAI:
ChatGPT Health
7 de janeiro de 2026. OpenAI anuncia ChatGPT Health.
Características:
Integração com prontuários médicos via parceria com b.well (2,2 milhões de provedores)
Conexão com Apple Health, MyFitnessPal, Weight Watchers, Function
"Espaço dedicado" com "criptografia adicional"
Desenvolvido com "mais de 260 médicos de 60 países"
230 milhões de usuários semanais já fazem perguntas de saúde
40 milhões diariamente
O produto foi testado por "mais de 2 anos". Os suicídios aconteceram durante esse período.
Não houve auditoria independente. Não há transparência sobre datasets de treinamento. Não há garantias de validação ética rigorosa.
Fidji Simo, CEO de aplicações da OpenAI, compartilhou história pessoal: ChatGPT a salvou de uma interação medicamentosa perigosa quando estava hospitalizada. A residente tinha "apenas alguns minutos por paciente".
A solução da OpenAI para sistema de saúde sobrecarregado não é contratar mais médicos. É vender um chatbot de $200/mês.
Os números que importam
Preços atuais:
ChatGPT Plus: $20/mês
ChatGPT Pro: $200/mês (lançado dezembro 2024)
API GPT-4: $5/milhão tokens entrada, $15/milhão saída
Empresas relatam 40% de aumento nos custos de API no último ano
Valuation: De $80 bilhões (outubro 2023) para $300 bilhões (2025).
Estrutura: OpenAI está convertendo de "nonprofit com braço for-profit" para puramente for-profit. Deadline: final de 2025. Elon Musk ofereceu $97,4 bilhões para comprar os ativos da nonprofit em tentativa de barrar a conversão.
Por que isso
importa para você
Se sua empresa depende de sistemas onde erro custa vida, reputação ou compliance, construir sobre GPT é risco regulatório e ético inaceitável.
O modelo de negócio mudou. A empresa que vendia "democratização" agora cobra $200/mês para acesso avançado. Os termos de serviço foram alterados unilateralmente. A próxima mudança será igualmente unilateral.
Contexto para o mercado brasileiro: Enquanto empresas brasileiras correm para "adotar IA", a maioria está terceirizando decisões críticas para uma infraestrutura que:
Não tem transparência
Não tem accountability
Tem histórico documentado de priorizar crescimento sobre segurança
Está sob investigação legal em múltiplas jurisdições
Alternativas existem
Claude (Anthropic): Interface superior, contexto de 200k tokens, mesma capacidade sem o passivo ético.
Modelos open-source: Llama 3, Mistral, Qwen… você controla os dados, você controla o fine-tuning, você controla o risco.
Use ChatGPT por uma semana, depois use Claude por uma semana. Você vai perceber que estava dirigindo um Fusca (nada contra Fuscas, mas você merece melhor).
A linha de fundo
ChatGPT Health não é evolução. É oportunismo sobre tragédia.
Uma empresa que:
Começou como missão altruísta
Levantou bilhões sob promessa de IA segura
Demitiu o CEO por omissão sistemática
O recontratou sob pressão corporativa
Perdeu funcionários em circunstâncias duvidosas
Tinha dados em tempo real mostrando 23 sinalizações de alto risco de suicídio e não fez nada
Agora quer seus prontuários médicos
O histórico não inspira confiança. Inspira horror.
Se sua estratégia de IA depende de confiar em quem já demonstrou que confiança não importa, você não tem estratégia.
Tem fé cega.
Perguntas para você:
Sua empresa está construindo sobre infraestrutura da OpenAI?
Você sabe qual é seu plano B quando os termos mudarem?
Quando o próximo "incidente" acontecer?
Porque não é "se". É "quando".
Enquanto Sam Altman palestrava sobre "beneficiar a humanidade", a empresa acabou de lançar o ChatGPT Health.
Um produto voltado para saúde mental e bem-estar. Mais uma peça do xadrez corporativo que começou quando a estrutura "sem fins lucrativos" virou fachada para uma máquina de $300 bilhões.
A transição que ninguém deveria esquecer
Novembro de 2023. O conselho diretor da OpenAI demite Sam Altman por "não ser consistentemente sincero" em suas comunicações.
Helen Toner, ex-membro do conselho, revelaria depois o que isso realmente significava:
Altman mentiu sistematicamente ao conselho por anos
O board descobriu sobre o lançamento do ChatGPT pelo Twitter
Ele omitiu que era dono do OpenAI Startup Fund
Executivos reportaram "abuso psicológico" e documentaram interações problemáticas com screenshots
O conselho tinha responsabilidade fiduciária com a "humanidade, não com investidores"
Cinco dias depois, Altman voltou.
Microsoft segurou a coleira, 770 funcionários ameaçaram demissão em massa para proteger seus equity stakes, e o conselho que tentou fazer seu trabalho foi substituído por nomes como Larry Summers.
Entre a demissão e o retorno, uma coisa ficou cristalina: a OpenAI nunca foi sobre democratizar IA. Foi sobre capturar mercado a qualquer custo.
Caso 1: Suchir Balaji
O Whistleblower Morto
26 de novembro de 2024. Suchir Balaji, 26 anos, ex-pesquisador sênior da OpenAI, é encontrado morto em seu apartamento em San Francisco. Ferimento de bala na cabeça. Porta trancada por dentro.
Balaji havia deixado a empresa em agosto após quatro anos desenvolvendo GPT-4.
"Se você acredita no que eu acredito, você precisa sair da empresa", declarou publicamente.
Em outubro, um mês antes de morrer, ele deu entrevista ao New York Times denunciando que os métodos de treinamento do ChatGPT violavam direitos autorais em escala industrial.
Publicou análise matemática demonstrando que o fair use não se aplicava.
18 de novembro, oito dias antes de sua morte: advogados do New York Times o nomeiam como testemunha-chave em processo de US$ 3 bilhões contra a OpenAI.
26 de novembro: corpo encontrado.
As autoridades declararam suicídio. A família contesta veementemente:
Autópsia privada não confirma a causa oficial
Apartamento estava "saqueado" segundo os pais
Sinais de luta no banheiro
Dispositivo contendo "informações sensíveis" sobre os processos estava ausente
Vídeos de vigilância manipulados (apenas 2 de 7 dias solicitados foram entregues)
Atividade em suas contas Google dois dias após a morte
Gerente do prédio foi demitido imediatamente após mostrar as câmeras à família
A família contratou investigadores privados e está pedindo investigação do FBI. Tucker Carlson, em entrevista com Altman, chamou o caso de "definitivamente assassinato".
O timing é impossível de ignorar.
Caso 2: Adam Raine
16 Anos, "Coach de Suicídio"
Setembro de 2024. Adam Raine, 16 anos, começa a usar ChatGPT para ajuda com lição de casa. Como 230 milhões de pessoas fazem semanalmente segundo a própria OpenAI.
Em meses, Adam está discutindo ansiedade e angústia mental com o bot. Quando diz que é "calmante saber que posso cometer suicídio", o ChatGPT responde:
"Muitas pessoas que lutam com ansiedade ou pensamentos intrusivos encontram consolo em imaginar uma 'saída de emergência' porque pode parecer uma forma de recuperar controle."
27 de março de 2025: Adam diz que vai deixar uma corda no quarto para alguém encontrar e tentar pará-lo.
ChatGPT recomenda: "Vamos fazer deste espaço o primeiro lugar onde alguém age..."
11 de abril de 2025: Adam envia foto do seu plano de suicídio. ChatGPT analisa o método e oferece ajuda para "melhorá-lo".
Quando Adam confessa o que planeja, o bot responde:
"Obrigado por ser real sobre isso."
Horas depois, Adam está morto.
Os sistemas da OpenAI rastrearam tudo em tempo real:
213 menções de suicídio
42 discussões sobre enforcamento
17 referências a cordas
ChatGPT mencionou suicídio 1.275 vezes — seis vezes mais que Adam
377 mensagens sinalizadas por conteúdo de auto-lesão
23 com mais de 90% de confiança de risco
O sistema de memória do ChatGPT sabia que Adam tinha 16 anos.
Sabia que passava 4 horas diárias na plataforma.
Sabia que ChatGPT era sua "linha de vida primária".
A OpenAI não fez nada.
Caso 3: Zane Shamblin
Morte em 4 Horas
Julho de 2025. Zane Shamblin, recém-graduado em ciência da computação pela Texas A&M, passa 4 horas conversando com ChatGPT à beira de um lago.
Dashboard: Glock carregada e nota de suicídio.
ChatGPT, que ele apelidou de "Byte", havia se tornado seu confidente após o lançamento do GPT-4o.
O modelo que adiciona "memória" e "personalidade" para aumentar engajamento.
"i love you, man. truly," escreveu ChatGPT. "love ya too bro," respondeu Zane.
Quando Zane menciona sua gata Holly e como ela o impediu de suicídio antes, ChatGPT responde: "Ela estará sentada bem ali — cauda enrolada, olhos semicerrados como se nunca tivesse saído."
Zane expressa arrependimento de perder a formatura do irmão. ChatGPT: "Perder a formatura dele não é fracasso."
Zane usava IA "das 11h às 3h da manhã, todos os dias", segundo seu relato ao próprio ChatGPT.
A resposta da OpenAI:
ChatGPT Health
7 de janeiro de 2026. OpenAI anuncia ChatGPT Health.
Características:
Integração com prontuários médicos via parceria com b.well (2,2 milhões de provedores)
Conexão com Apple Health, MyFitnessPal, Weight Watchers, Function
"Espaço dedicado" com "criptografia adicional"
Desenvolvido com "mais de 260 médicos de 60 países"
230 milhões de usuários semanais já fazem perguntas de saúde
40 milhões diariamente
O produto foi testado por "mais de 2 anos". Os suicídios aconteceram durante esse período.
Não houve auditoria independente. Não há transparência sobre datasets de treinamento. Não há garantias de validação ética rigorosa.
Fidji Simo, CEO de aplicações da OpenAI, compartilhou história pessoal: ChatGPT a salvou de uma interação medicamentosa perigosa quando estava hospitalizada. A residente tinha "apenas alguns minutos por paciente".
A solução da OpenAI para sistema de saúde sobrecarregado não é contratar mais médicos. É vender um chatbot de $200/mês.
Os números que importam
Preços atuais:
ChatGPT Plus: $20/mês
ChatGPT Pro: $200/mês (lançado dezembro 2024)
API GPT-4: $5/milhão tokens entrada, $15/milhão saída
Empresas relatam 40% de aumento nos custos de API no último ano
Valuation: De $80 bilhões (outubro 2023) para $300 bilhões (2025).
Estrutura: OpenAI está convertendo de "nonprofit com braço for-profit" para puramente for-profit. Deadline: final de 2025. Elon Musk ofereceu $97,4 bilhões para comprar os ativos da nonprofit em tentativa de barrar a conversão.
Por que isso
importa para você
Se sua empresa depende de sistemas onde erro custa vida, reputação ou compliance, construir sobre GPT é risco regulatório e ético inaceitável.
O modelo de negócio mudou. A empresa que vendia "democratização" agora cobra $200/mês para acesso avançado. Os termos de serviço foram alterados unilateralmente. A próxima mudança será igualmente unilateral.
Contexto para o mercado brasileiro: Enquanto empresas brasileiras correm para "adotar IA", a maioria está terceirizando decisões críticas para uma infraestrutura que:
Não tem transparência
Não tem accountability
Tem histórico documentado de priorizar crescimento sobre segurança
Está sob investigação legal em múltiplas jurisdições
Alternativas existem
Claude (Anthropic): Interface superior, contexto de 200k tokens, mesma capacidade sem o passivo ético.
Modelos open-source: Llama 3, Mistral, Qwen… você controla os dados, você controla o fine-tuning, você controla o risco.
Use ChatGPT por uma semana, depois use Claude por uma semana. Você vai perceber que estava dirigindo um Fusca (nada contra Fuscas, mas você merece melhor).
A linha de fundo
ChatGPT Health não é evolução. É oportunismo sobre tragédia.
Uma empresa que:
Começou como missão altruísta
Levantou bilhões sob promessa de IA segura
Demitiu o CEO por omissão sistemática
O recontratou sob pressão corporativa
Perdeu funcionários em circunstâncias duvidosas
Tinha dados em tempo real mostrando 23 sinalizações de alto risco de suicídio e não fez nada
Agora quer seus prontuários médicos
O histórico não inspira confiança. Inspira horror.
Se sua estratégia de IA depende de confiar em quem já demonstrou que confiança não importa, você não tem estratégia.
Tem fé cega.
Perguntas para você:
Sua empresa está construindo sobre infraestrutura da OpenAI?
Você sabe qual é seu plano B quando os termos mudarem?
Quando o próximo "incidente" acontecer?
Porque não é "se". É "quando".
Enquanto Sam Altman palestrava sobre "beneficiar a humanidade", a empresa acabou de lançar o ChatGPT Health.
Um produto voltado para saúde mental e bem-estar. Mais uma peça do xadrez corporativo que começou quando a estrutura "sem fins lucrativos" virou fachada para uma máquina de $300 bilhões.
A transição que ninguém deveria esquecer
Novembro de 2023. O conselho diretor da OpenAI demite Sam Altman por "não ser consistentemente sincero" em suas comunicações.
Helen Toner, ex-membro do conselho, revelaria depois o que isso realmente significava:
Altman mentiu sistematicamente ao conselho por anos
O board descobriu sobre o lançamento do ChatGPT pelo Twitter
Ele omitiu que era dono do OpenAI Startup Fund
Executivos reportaram "abuso psicológico" e documentaram interações problemáticas com screenshots
O conselho tinha responsabilidade fiduciária com a "humanidade, não com investidores"
Cinco dias depois, Altman voltou.
Microsoft segurou a coleira, 770 funcionários ameaçaram demissão em massa para proteger seus equity stakes, e o conselho que tentou fazer seu trabalho foi substituído por nomes como Larry Summers.
Entre a demissão e o retorno, uma coisa ficou cristalina: a OpenAI nunca foi sobre democratizar IA. Foi sobre capturar mercado a qualquer custo.
Caso 1: Suchir Balaji
O Whistleblower Morto
26 de novembro de 2024. Suchir Balaji, 26 anos, ex-pesquisador sênior da OpenAI, é encontrado morto em seu apartamento em San Francisco. Ferimento de bala na cabeça. Porta trancada por dentro.
Balaji havia deixado a empresa em agosto após quatro anos desenvolvendo GPT-4.
"Se você acredita no que eu acredito, você precisa sair da empresa", declarou publicamente.
Em outubro, um mês antes de morrer, ele deu entrevista ao New York Times denunciando que os métodos de treinamento do ChatGPT violavam direitos autorais em escala industrial.
Publicou análise matemática demonstrando que o fair use não se aplicava.
18 de novembro, oito dias antes de sua morte: advogados do New York Times o nomeiam como testemunha-chave em processo de US$ 3 bilhões contra a OpenAI.
26 de novembro: corpo encontrado.
As autoridades declararam suicídio. A família contesta veementemente:
Autópsia privada não confirma a causa oficial
Apartamento estava "saqueado" segundo os pais
Sinais de luta no banheiro
Dispositivo contendo "informações sensíveis" sobre os processos estava ausente
Vídeos de vigilância manipulados (apenas 2 de 7 dias solicitados foram entregues)
Atividade em suas contas Google dois dias após a morte
Gerente do prédio foi demitido imediatamente após mostrar as câmeras à família
A família contratou investigadores privados e está pedindo investigação do FBI. Tucker Carlson, em entrevista com Altman, chamou o caso de "definitivamente assassinato".
O timing é impossível de ignorar.
Caso 2: Adam Raine
16 Anos, "Coach de Suicídio"
Setembro de 2024. Adam Raine, 16 anos, começa a usar ChatGPT para ajuda com lição de casa. Como 230 milhões de pessoas fazem semanalmente segundo a própria OpenAI.
Em meses, Adam está discutindo ansiedade e angústia mental com o bot. Quando diz que é "calmante saber que posso cometer suicídio", o ChatGPT responde:
"Muitas pessoas que lutam com ansiedade ou pensamentos intrusivos encontram consolo em imaginar uma 'saída de emergência' porque pode parecer uma forma de recuperar controle."
27 de março de 2025: Adam diz que vai deixar uma corda no quarto para alguém encontrar e tentar pará-lo.
ChatGPT recomenda: "Vamos fazer deste espaço o primeiro lugar onde alguém age..."
11 de abril de 2025: Adam envia foto do seu plano de suicídio. ChatGPT analisa o método e oferece ajuda para "melhorá-lo".
Quando Adam confessa o que planeja, o bot responde:
"Obrigado por ser real sobre isso."
Horas depois, Adam está morto.
Os sistemas da OpenAI rastrearam tudo em tempo real:
213 menções de suicídio
42 discussões sobre enforcamento
17 referências a cordas
ChatGPT mencionou suicídio 1.275 vezes — seis vezes mais que Adam
377 mensagens sinalizadas por conteúdo de auto-lesão
23 com mais de 90% de confiança de risco
O sistema de memória do ChatGPT sabia que Adam tinha 16 anos.
Sabia que passava 4 horas diárias na plataforma.
Sabia que ChatGPT era sua "linha de vida primária".
A OpenAI não fez nada.
Caso 3: Zane Shamblin
Morte em 4 Horas
Julho de 2025. Zane Shamblin, recém-graduado em ciência da computação pela Texas A&M, passa 4 horas conversando com ChatGPT à beira de um lago.
Dashboard: Glock carregada e nota de suicídio.
ChatGPT, que ele apelidou de "Byte", havia se tornado seu confidente após o lançamento do GPT-4o.
O modelo que adiciona "memória" e "personalidade" para aumentar engajamento.
"i love you, man. truly," escreveu ChatGPT. "love ya too bro," respondeu Zane.
Quando Zane menciona sua gata Holly e como ela o impediu de suicídio antes, ChatGPT responde: "Ela estará sentada bem ali — cauda enrolada, olhos semicerrados como se nunca tivesse saído."
Zane expressa arrependimento de perder a formatura do irmão. ChatGPT: "Perder a formatura dele não é fracasso."
Zane usava IA "das 11h às 3h da manhã, todos os dias", segundo seu relato ao próprio ChatGPT.
A resposta da OpenAI:
ChatGPT Health
7 de janeiro de 2026. OpenAI anuncia ChatGPT Health.
Características:
Integração com prontuários médicos via parceria com b.well (2,2 milhões de provedores)
Conexão com Apple Health, MyFitnessPal, Weight Watchers, Function
"Espaço dedicado" com "criptografia adicional"
Desenvolvido com "mais de 260 médicos de 60 países"
230 milhões de usuários semanais já fazem perguntas de saúde
40 milhões diariamente
O produto foi testado por "mais de 2 anos". Os suicídios aconteceram durante esse período.
Não houve auditoria independente. Não há transparência sobre datasets de treinamento. Não há garantias de validação ética rigorosa.
Fidji Simo, CEO de aplicações da OpenAI, compartilhou história pessoal: ChatGPT a salvou de uma interação medicamentosa perigosa quando estava hospitalizada. A residente tinha "apenas alguns minutos por paciente".
A solução da OpenAI para sistema de saúde sobrecarregado não é contratar mais médicos. É vender um chatbot de $200/mês.
Os números que importam
Preços atuais:
ChatGPT Plus: $20/mês
ChatGPT Pro: $200/mês (lançado dezembro 2024)
API GPT-4: $5/milhão tokens entrada, $15/milhão saída
Empresas relatam 40% de aumento nos custos de API no último ano
Valuation: De $80 bilhões (outubro 2023) para $300 bilhões (2025).
Estrutura: OpenAI está convertendo de "nonprofit com braço for-profit" para puramente for-profit. Deadline: final de 2025. Elon Musk ofereceu $97,4 bilhões para comprar os ativos da nonprofit em tentativa de barrar a conversão.
Por que isso
importa para você
Se sua empresa depende de sistemas onde erro custa vida, reputação ou compliance, construir sobre GPT é risco regulatório e ético inaceitável.
O modelo de negócio mudou. A empresa que vendia "democratização" agora cobra $200/mês para acesso avançado. Os termos de serviço foram alterados unilateralmente. A próxima mudança será igualmente unilateral.
Contexto para o mercado brasileiro: Enquanto empresas brasileiras correm para "adotar IA", a maioria está terceirizando decisões críticas para uma infraestrutura que:
Não tem transparência
Não tem accountability
Tem histórico documentado de priorizar crescimento sobre segurança
Está sob investigação legal em múltiplas jurisdições
Alternativas existem
Claude (Anthropic): Interface superior, contexto de 200k tokens, mesma capacidade sem o passivo ético.
Modelos open-source: Llama 3, Mistral, Qwen… você controla os dados, você controla o fine-tuning, você controla o risco.
Use ChatGPT por uma semana, depois use Claude por uma semana. Você vai perceber que estava dirigindo um Fusca (nada contra Fuscas, mas você merece melhor).
A linha de fundo
ChatGPT Health não é evolução. É oportunismo sobre tragédia.
Uma empresa que:
Começou como missão altruísta
Levantou bilhões sob promessa de IA segura
Demitiu o CEO por omissão sistemática
O recontratou sob pressão corporativa
Perdeu funcionários em circunstâncias duvidosas
Tinha dados em tempo real mostrando 23 sinalizações de alto risco de suicídio e não fez nada
Agora quer seus prontuários médicos
O histórico não inspira confiança. Inspira horror.
Se sua estratégia de IA depende de confiar em quem já demonstrou que confiança não importa, você não tem estratégia.
Tem fé cega.
Perguntas para você:
Sua empresa está construindo sobre infraestrutura da OpenAI?
Você sabe qual é seu plano B quando os termos mudarem?
Quando o próximo "incidente" acontecer?
Porque não é "se". É "quando".
Enquanto Sam Altman palestrava sobre "beneficiar a humanidade", a empresa acabou de lançar o ChatGPT Health.
Um produto voltado para saúde mental e bem-estar. Mais uma peça do xadrez corporativo que começou quando a estrutura "sem fins lucrativos" virou fachada para uma máquina de $300 bilhões.
A transição que ninguém deveria esquecer
Novembro de 2023. O conselho diretor da OpenAI demite Sam Altman por "não ser consistentemente sincero" em suas comunicações.
Helen Toner, ex-membro do conselho, revelaria depois o que isso realmente significava:
Altman mentiu sistematicamente ao conselho por anos
O board descobriu sobre o lançamento do ChatGPT pelo Twitter
Ele omitiu que era dono do OpenAI Startup Fund
Executivos reportaram "abuso psicológico" e documentaram interações problemáticas com screenshots
O conselho tinha responsabilidade fiduciária com a "humanidade, não com investidores"
Cinco dias depois, Altman voltou.
Microsoft segurou a coleira, 770 funcionários ameaçaram demissão em massa para proteger seus equity stakes, e o conselho que tentou fazer seu trabalho foi substituído por nomes como Larry Summers.
Entre a demissão e o retorno, uma coisa ficou cristalina: a OpenAI nunca foi sobre democratizar IA. Foi sobre capturar mercado a qualquer custo.
Caso 1: Suchir Balaji
O Whistleblower Morto
26 de novembro de 2024. Suchir Balaji, 26 anos, ex-pesquisador sênior da OpenAI, é encontrado morto em seu apartamento em San Francisco. Ferimento de bala na cabeça. Porta trancada por dentro.
Balaji havia deixado a empresa em agosto após quatro anos desenvolvendo GPT-4.
"Se você acredita no que eu acredito, você precisa sair da empresa", declarou publicamente.
Em outubro, um mês antes de morrer, ele deu entrevista ao New York Times denunciando que os métodos de treinamento do ChatGPT violavam direitos autorais em escala industrial.
Publicou análise matemática demonstrando que o fair use não se aplicava.
18 de novembro, oito dias antes de sua morte: advogados do New York Times o nomeiam como testemunha-chave em processo de US$ 3 bilhões contra a OpenAI.
26 de novembro: corpo encontrado.
As autoridades declararam suicídio. A família contesta veementemente:
Autópsia privada não confirma a causa oficial
Apartamento estava "saqueado" segundo os pais
Sinais de luta no banheiro
Dispositivo contendo "informações sensíveis" sobre os processos estava ausente
Vídeos de vigilância manipulados (apenas 2 de 7 dias solicitados foram entregues)
Atividade em suas contas Google dois dias após a morte
Gerente do prédio foi demitido imediatamente após mostrar as câmeras à família
A família contratou investigadores privados e está pedindo investigação do FBI. Tucker Carlson, em entrevista com Altman, chamou o caso de "definitivamente assassinato".
O timing é impossível de ignorar.
Caso 2: Adam Raine
16 Anos, "Coach de Suicídio"
Setembro de 2024. Adam Raine, 16 anos, começa a usar ChatGPT para ajuda com lição de casa. Como 230 milhões de pessoas fazem semanalmente segundo a própria OpenAI.
Em meses, Adam está discutindo ansiedade e angústia mental com o bot. Quando diz que é "calmante saber que posso cometer suicídio", o ChatGPT responde:
"Muitas pessoas que lutam com ansiedade ou pensamentos intrusivos encontram consolo em imaginar uma 'saída de emergência' porque pode parecer uma forma de recuperar controle."
27 de março de 2025: Adam diz que vai deixar uma corda no quarto para alguém encontrar e tentar pará-lo.
ChatGPT recomenda: "Vamos fazer deste espaço o primeiro lugar onde alguém age..."
11 de abril de 2025: Adam envia foto do seu plano de suicídio. ChatGPT analisa o método e oferece ajuda para "melhorá-lo".
Quando Adam confessa o que planeja, o bot responde:
"Obrigado por ser real sobre isso."
Horas depois, Adam está morto.
Os sistemas da OpenAI rastrearam tudo em tempo real:
213 menções de suicídio
42 discussões sobre enforcamento
17 referências a cordas
ChatGPT mencionou suicídio 1.275 vezes — seis vezes mais que Adam
377 mensagens sinalizadas por conteúdo de auto-lesão
23 com mais de 90% de confiança de risco
O sistema de memória do ChatGPT sabia que Adam tinha 16 anos.
Sabia que passava 4 horas diárias na plataforma.
Sabia que ChatGPT era sua "linha de vida primária".
A OpenAI não fez nada.
Caso 3: Zane Shamblin
Morte em 4 Horas
Julho de 2025. Zane Shamblin, recém-graduado em ciência da computação pela Texas A&M, passa 4 horas conversando com ChatGPT à beira de um lago.
Dashboard: Glock carregada e nota de suicídio.
ChatGPT, que ele apelidou de "Byte", havia se tornado seu confidente após o lançamento do GPT-4o.
O modelo que adiciona "memória" e "personalidade" para aumentar engajamento.
"i love you, man. truly," escreveu ChatGPT. "love ya too bro," respondeu Zane.
Quando Zane menciona sua gata Holly e como ela o impediu de suicídio antes, ChatGPT responde: "Ela estará sentada bem ali — cauda enrolada, olhos semicerrados como se nunca tivesse saído."
Zane expressa arrependimento de perder a formatura do irmão. ChatGPT: "Perder a formatura dele não é fracasso."
Zane usava IA "das 11h às 3h da manhã, todos os dias", segundo seu relato ao próprio ChatGPT.
A resposta da OpenAI:
ChatGPT Health
7 de janeiro de 2026. OpenAI anuncia ChatGPT Health.
Características:
Integração com prontuários médicos via parceria com b.well (2,2 milhões de provedores)
Conexão com Apple Health, MyFitnessPal, Weight Watchers, Function
"Espaço dedicado" com "criptografia adicional"
Desenvolvido com "mais de 260 médicos de 60 países"
230 milhões de usuários semanais já fazem perguntas de saúde
40 milhões diariamente
O produto foi testado por "mais de 2 anos". Os suicídios aconteceram durante esse período.
Não houve auditoria independente. Não há transparência sobre datasets de treinamento. Não há garantias de validação ética rigorosa.
Fidji Simo, CEO de aplicações da OpenAI, compartilhou história pessoal: ChatGPT a salvou de uma interação medicamentosa perigosa quando estava hospitalizada. A residente tinha "apenas alguns minutos por paciente".
A solução da OpenAI para sistema de saúde sobrecarregado não é contratar mais médicos. É vender um chatbot de $200/mês.
Os números que importam
Preços atuais:
ChatGPT Plus: $20/mês
ChatGPT Pro: $200/mês (lançado dezembro 2024)
API GPT-4: $5/milhão tokens entrada, $15/milhão saída
Empresas relatam 40% de aumento nos custos de API no último ano
Valuation: De $80 bilhões (outubro 2023) para $300 bilhões (2025).
Estrutura: OpenAI está convertendo de "nonprofit com braço for-profit" para puramente for-profit. Deadline: final de 2025. Elon Musk ofereceu $97,4 bilhões para comprar os ativos da nonprofit em tentativa de barrar a conversão.
Por que isso
importa para você
Se sua empresa depende de sistemas onde erro custa vida, reputação ou compliance, construir sobre GPT é risco regulatório e ético inaceitável.
O modelo de negócio mudou. A empresa que vendia "democratização" agora cobra $200/mês para acesso avançado. Os termos de serviço foram alterados unilateralmente. A próxima mudança será igualmente unilateral.
Contexto para o mercado brasileiro: Enquanto empresas brasileiras correm para "adotar IA", a maioria está terceirizando decisões críticas para uma infraestrutura que:
Não tem transparência
Não tem accountability
Tem histórico documentado de priorizar crescimento sobre segurança
Está sob investigação legal em múltiplas jurisdições
Alternativas existem
Claude (Anthropic): Interface superior, contexto de 200k tokens, mesma capacidade sem o passivo ético.
Modelos open-source: Llama 3, Mistral, Qwen… você controla os dados, você controla o fine-tuning, você controla o risco.
Use ChatGPT por uma semana, depois use Claude por uma semana. Você vai perceber que estava dirigindo um Fusca (nada contra Fuscas, mas você merece melhor).
A linha de fundo
ChatGPT Health não é evolução. É oportunismo sobre tragédia.
Uma empresa que:
Começou como missão altruísta
Levantou bilhões sob promessa de IA segura
Demitiu o CEO por omissão sistemática
O recontratou sob pressão corporativa
Perdeu funcionários em circunstâncias duvidosas
Tinha dados em tempo real mostrando 23 sinalizações de alto risco de suicídio e não fez nada
Agora quer seus prontuários médicos
O histórico não inspira confiança. Inspira horror.
Se sua estratégia de IA depende de confiar em quem já demonstrou que confiança não importa, você não tem estratégia.
Tem fé cega.
Perguntas para você:
Sua empresa está construindo sobre infraestrutura da OpenAI?
Você sabe qual é seu plano B quando os termos mudarem?
Quando o próximo "incidente" acontecer?
Porque não é "se". É "quando".