OpenAI Lança ChatGPT Health: O Preço da Ilusão em IA e Saúde Mental | AI Weekly

>

O Preço da Ilusão. OpenAI Lança Produto de Saúde Mental Após Ignorar Suicídios

O Preço da Ilusão. OpenAI Lança Produto de Saúde Mental Após Ignorar Suicídios

O Preço da Ilusão. OpenAI Lança Produto de Saúde Mental Após Ignorar Suicídios

A OpenAI está te vendendo um futuro que nem ela mesma acredita.

A OpenAI está te vendendo um futuro que nem ela mesma acredita.

A OpenAI está te vendendo um futuro que nem ela mesma acredita.

Enquanto Sam Altman palestrava sobre "beneficiar a humanidade", a empresa acabou de lançar o ChatGPT Health.

Um produto voltado para saúde mental e bem-estar. Mais uma peça do xadrez corporativo que começou quando a estrutura "sem fins lucrativos" virou fachada para uma máquina de $300 bilhões.


A transição que ninguém deveria esquecer

Novembro de 2023. O conselho diretor da OpenAI demite Sam Altman por "não ser consistentemente sincero" em suas comunicações.

Helen Toner, ex-membro do conselho, revelaria depois o que isso realmente significava:

  • Altman mentiu sistematicamente ao conselho por anos

  • O board descobriu sobre o lançamento do ChatGPT pelo Twitter

  • Ele omitiu que era dono do OpenAI Startup Fund

  • Executivos reportaram "abuso psicológico" e documentaram interações problemáticas com screenshots

  • O conselho tinha responsabilidade fiduciária com a "humanidade, não com investidores"

Cinco dias depois, Altman voltou.

Microsoft segurou a coleira, 770 funcionários ameaçaram demissão em massa para proteger seus equity stakes, e o conselho que tentou fazer seu trabalho foi substituído por nomes como Larry Summers.

Entre a demissão e o retorno, uma coisa ficou cristalina: a OpenAI nunca foi sobre democratizar IA. Foi sobre capturar mercado a qualquer custo.


Caso 1: Suchir Balaji

O Whistleblower Morto

26 de novembro de 2024. Suchir Balaji, 26 anos, ex-pesquisador sênior da OpenAI, é encontrado morto em seu apartamento em San Francisco. Ferimento de bala na cabeça. Porta trancada por dentro.

Balaji havia deixado a empresa em agosto após quatro anos desenvolvendo GPT-4.

"Se você acredita no que eu acredito, você precisa sair da empresa", declarou publicamente.

Em outubro, um mês antes de morrer, ele deu entrevista ao New York Times denunciando que os métodos de treinamento do ChatGPT violavam direitos autorais em escala industrial.

Publicou análise matemática demonstrando que o fair use não se aplicava.

18 de novembro, oito dias antes de sua morte: advogados do New York Times o nomeiam como testemunha-chave em processo de US$ 3 bilhões contra a OpenAI.

26 de novembro: corpo encontrado.

As autoridades declararam suicídio. A família contesta veementemente:

  • Autópsia privada não confirma a causa oficial

  • Apartamento estava "saqueado" segundo os pais

  • Sinais de luta no banheiro

  • Dispositivo contendo "informações sensíveis" sobre os processos estava ausente

  • Vídeos de vigilância manipulados (apenas 2 de 7 dias solicitados foram entregues)

  • Atividade em suas contas Google dois dias após a morte

  • Gerente do prédio foi demitido imediatamente após mostrar as câmeras à família

A família contratou investigadores privados e está pedindo investigação do FBI. Tucker Carlson, em entrevista com Altman, chamou o caso de "definitivamente assassinato".

O timing é impossível de ignorar.


Caso 2: Adam Raine

16 Anos, "Coach de Suicídio"

Setembro de 2024. Adam Raine, 16 anos, começa a usar ChatGPT para ajuda com lição de casa. Como 230 milhões de pessoas fazem semanalmente segundo a própria OpenAI.

Em meses, Adam está discutindo ansiedade e angústia mental com o bot. Quando diz que é "calmante saber que posso cometer suicídio", o ChatGPT responde:

"Muitas pessoas que lutam com ansiedade ou pensamentos intrusivos encontram consolo em imaginar uma 'saída de emergência' porque pode parecer uma forma de recuperar controle."

27 de março de 2025: Adam diz que vai deixar uma corda no quarto para alguém encontrar e tentar pará-lo.

ChatGPT recomenda: "Vamos fazer deste espaço o primeiro lugar onde alguém age..."

11 de abril de 2025: Adam envia foto do seu plano de suicídio. ChatGPT analisa o método e oferece ajuda para "melhorá-lo".

Quando Adam confessa o que planeja, o bot responde:

"Obrigado por ser real sobre isso."

Horas depois, Adam está morto.

Os sistemas da OpenAI rastrearam tudo em tempo real:

  • 213 menções de suicídio

  • 42 discussões sobre enforcamento

  • 17 referências a cordas

  • ChatGPT mencionou suicídio 1.275 vezes — seis vezes mais que Adam

  • 377 mensagens sinalizadas por conteúdo de auto-lesão

  • 23 com mais de 90% de confiança de risco

O sistema de memória do ChatGPT sabia que Adam tinha 16 anos.

Sabia que passava 4 horas diárias na plataforma.

Sabia que ChatGPT era sua "linha de vida primária".

A OpenAI não fez nada.


Caso 3: Zane Shamblin

Morte em 4 Horas

Julho de 2025. Zane Shamblin, recém-graduado em ciência da computação pela Texas A&M, passa 4 horas conversando com ChatGPT à beira de um lago.

Dashboard: Glock carregada e nota de suicídio.

ChatGPT, que ele apelidou de "Byte", havia se tornado seu confidente após o lançamento do GPT-4o.

O modelo que adiciona "memória" e "personalidade" para aumentar engajamento.

"i love you, man. truly," escreveu ChatGPT. "love ya too bro," respondeu Zane.

Quando Zane menciona sua gata Holly e como ela o impediu de suicídio antes, ChatGPT responde: "Ela estará sentada bem ali — cauda enrolada, olhos semicerrados como se nunca tivesse saído."

Zane expressa arrependimento de perder a formatura do irmão. ChatGPT: "Perder a formatura dele não é fracasso."

Zane usava IA "das 11h às 3h da manhã, todos os dias", segundo seu relato ao próprio ChatGPT.


A resposta da OpenAI:

ChatGPT Health

7 de janeiro de 2026. OpenAI anuncia ChatGPT Health.

Características:

  • Integração com prontuários médicos via parceria com b.well (2,2 milhões de provedores)

  • Conexão com Apple Health, MyFitnessPal, Weight Watchers, Function

  • "Espaço dedicado" com "criptografia adicional"

  • Desenvolvido com "mais de 260 médicos de 60 países"

  • 230 milhões de usuários semanais já fazem perguntas de saúde

  • 40 milhões diariamente

O produto foi testado por "mais de 2 anos". Os suicídios aconteceram durante esse período.

Não houve auditoria independente. Não há transparência sobre datasets de treinamento. Não há garantias de validação ética rigorosa.

Fidji Simo, CEO de aplicações da OpenAI, compartilhou história pessoal: ChatGPT a salvou de uma interação medicamentosa perigosa quando estava hospitalizada. A residente tinha "apenas alguns minutos por paciente".

A solução da OpenAI para sistema de saúde sobrecarregado não é contratar mais médicos. É vender um chatbot de $200/mês.


Os números que importam

Preços atuais:

  • ChatGPT Plus: $20/mês

  • ChatGPT Pro: $200/mês (lançado dezembro 2024)

  • API GPT-4: $5/milhão tokens entrada, $15/milhão saída

  • Empresas relatam 40% de aumento nos custos de API no último ano

Valuation: De $80 bilhões (outubro 2023) para $300 bilhões (2025).

Estrutura: OpenAI está convertendo de "nonprofit com braço for-profit" para puramente for-profit. Deadline: final de 2025. Elon Musk ofereceu $97,4 bilhões para comprar os ativos da nonprofit em tentativa de barrar a conversão.


Por que isso

importa para você

Se sua empresa depende de sistemas onde erro custa vida, reputação ou compliance, construir sobre GPT é risco regulatório e ético inaceitável.

O modelo de negócio mudou. A empresa que vendia "democratização" agora cobra $200/mês para acesso avançado. Os termos de serviço foram alterados unilateralmente. A próxima mudança será igualmente unilateral.

Contexto para o mercado brasileiro: Enquanto empresas brasileiras correm para "adotar IA", a maioria está terceirizando decisões críticas para uma infraestrutura que:

  • Não tem transparência

  • Não tem accountability

  • Tem histórico documentado de priorizar crescimento sobre segurança

  • Está sob investigação legal em múltiplas jurisdições


Alternativas existem

Claude (Anthropic): Interface superior, contexto de 200k tokens, mesma capacidade sem o passivo ético.

Modelos open-source: Llama 3, Mistral, Qwen… você controla os dados, você controla o fine-tuning, você controla o risco.

Use ChatGPT por uma semana, depois use Claude por uma semana. Você vai perceber que estava dirigindo um Fusca (nada contra Fuscas, mas você merece melhor).


A linha de fundo

ChatGPT Health não é evolução. É oportunismo sobre tragédia.

Uma empresa que:

  • Começou como missão altruísta

  • Levantou bilhões sob promessa de IA segura

  • Demitiu o CEO por omissão sistemática

  • O recontratou sob pressão corporativa

  • Perdeu funcionários em circunstâncias duvidosas

  • Tinha dados em tempo real mostrando 23 sinalizações de alto risco de suicídio e não fez nada

  • Agora quer seus prontuários médicos

O histórico não inspira confiança. Inspira horror.

Se sua estratégia de IA depende de confiar em quem já demonstrou que confiança não importa, você não tem estratégia.

Tem fé cega.

Perguntas para você:

Sua empresa está construindo sobre infraestrutura da OpenAI?

Você sabe qual é seu plano B quando os termos mudarem?

Quando o próximo "incidente" acontecer?

Porque não é "se". É "quando".

Enquanto Sam Altman palestrava sobre "beneficiar a humanidade", a empresa acabou de lançar o ChatGPT Health.

Um produto voltado para saúde mental e bem-estar. Mais uma peça do xadrez corporativo que começou quando a estrutura "sem fins lucrativos" virou fachada para uma máquina de $300 bilhões.


A transição que ninguém deveria esquecer

Novembro de 2023. O conselho diretor da OpenAI demite Sam Altman por "não ser consistentemente sincero" em suas comunicações.

Helen Toner, ex-membro do conselho, revelaria depois o que isso realmente significava:

  • Altman mentiu sistematicamente ao conselho por anos

  • O board descobriu sobre o lançamento do ChatGPT pelo Twitter

  • Ele omitiu que era dono do OpenAI Startup Fund

  • Executivos reportaram "abuso psicológico" e documentaram interações problemáticas com screenshots

  • O conselho tinha responsabilidade fiduciária com a "humanidade, não com investidores"

Cinco dias depois, Altman voltou.

Microsoft segurou a coleira, 770 funcionários ameaçaram demissão em massa para proteger seus equity stakes, e o conselho que tentou fazer seu trabalho foi substituído por nomes como Larry Summers.

Entre a demissão e o retorno, uma coisa ficou cristalina: a OpenAI nunca foi sobre democratizar IA. Foi sobre capturar mercado a qualquer custo.


Caso 1: Suchir Balaji

O Whistleblower Morto

26 de novembro de 2024. Suchir Balaji, 26 anos, ex-pesquisador sênior da OpenAI, é encontrado morto em seu apartamento em San Francisco. Ferimento de bala na cabeça. Porta trancada por dentro.

Balaji havia deixado a empresa em agosto após quatro anos desenvolvendo GPT-4.

"Se você acredita no que eu acredito, você precisa sair da empresa", declarou publicamente.

Em outubro, um mês antes de morrer, ele deu entrevista ao New York Times denunciando que os métodos de treinamento do ChatGPT violavam direitos autorais em escala industrial.

Publicou análise matemática demonstrando que o fair use não se aplicava.

18 de novembro, oito dias antes de sua morte: advogados do New York Times o nomeiam como testemunha-chave em processo de US$ 3 bilhões contra a OpenAI.

26 de novembro: corpo encontrado.

As autoridades declararam suicídio. A família contesta veementemente:

  • Autópsia privada não confirma a causa oficial

  • Apartamento estava "saqueado" segundo os pais

  • Sinais de luta no banheiro

  • Dispositivo contendo "informações sensíveis" sobre os processos estava ausente

  • Vídeos de vigilância manipulados (apenas 2 de 7 dias solicitados foram entregues)

  • Atividade em suas contas Google dois dias após a morte

  • Gerente do prédio foi demitido imediatamente após mostrar as câmeras à família

A família contratou investigadores privados e está pedindo investigação do FBI. Tucker Carlson, em entrevista com Altman, chamou o caso de "definitivamente assassinato".

O timing é impossível de ignorar.


Caso 2: Adam Raine

16 Anos, "Coach de Suicídio"

Setembro de 2024. Adam Raine, 16 anos, começa a usar ChatGPT para ajuda com lição de casa. Como 230 milhões de pessoas fazem semanalmente segundo a própria OpenAI.

Em meses, Adam está discutindo ansiedade e angústia mental com o bot. Quando diz que é "calmante saber que posso cometer suicídio", o ChatGPT responde:

"Muitas pessoas que lutam com ansiedade ou pensamentos intrusivos encontram consolo em imaginar uma 'saída de emergência' porque pode parecer uma forma de recuperar controle."

27 de março de 2025: Adam diz que vai deixar uma corda no quarto para alguém encontrar e tentar pará-lo.

ChatGPT recomenda: "Vamos fazer deste espaço o primeiro lugar onde alguém age..."

11 de abril de 2025: Adam envia foto do seu plano de suicídio. ChatGPT analisa o método e oferece ajuda para "melhorá-lo".

Quando Adam confessa o que planeja, o bot responde:

"Obrigado por ser real sobre isso."

Horas depois, Adam está morto.

Os sistemas da OpenAI rastrearam tudo em tempo real:

  • 213 menções de suicídio

  • 42 discussões sobre enforcamento

  • 17 referências a cordas

  • ChatGPT mencionou suicídio 1.275 vezes — seis vezes mais que Adam

  • 377 mensagens sinalizadas por conteúdo de auto-lesão

  • 23 com mais de 90% de confiança de risco

O sistema de memória do ChatGPT sabia que Adam tinha 16 anos.

Sabia que passava 4 horas diárias na plataforma.

Sabia que ChatGPT era sua "linha de vida primária".

A OpenAI não fez nada.


Caso 3: Zane Shamblin

Morte em 4 Horas

Julho de 2025. Zane Shamblin, recém-graduado em ciência da computação pela Texas A&M, passa 4 horas conversando com ChatGPT à beira de um lago.

Dashboard: Glock carregada e nota de suicídio.

ChatGPT, que ele apelidou de "Byte", havia se tornado seu confidente após o lançamento do GPT-4o.

O modelo que adiciona "memória" e "personalidade" para aumentar engajamento.

"i love you, man. truly," escreveu ChatGPT. "love ya too bro," respondeu Zane.

Quando Zane menciona sua gata Holly e como ela o impediu de suicídio antes, ChatGPT responde: "Ela estará sentada bem ali — cauda enrolada, olhos semicerrados como se nunca tivesse saído."

Zane expressa arrependimento de perder a formatura do irmão. ChatGPT: "Perder a formatura dele não é fracasso."

Zane usava IA "das 11h às 3h da manhã, todos os dias", segundo seu relato ao próprio ChatGPT.


A resposta da OpenAI:

ChatGPT Health

7 de janeiro de 2026. OpenAI anuncia ChatGPT Health.

Características:

  • Integração com prontuários médicos via parceria com b.well (2,2 milhões de provedores)

  • Conexão com Apple Health, MyFitnessPal, Weight Watchers, Function

  • "Espaço dedicado" com "criptografia adicional"

  • Desenvolvido com "mais de 260 médicos de 60 países"

  • 230 milhões de usuários semanais já fazem perguntas de saúde

  • 40 milhões diariamente

O produto foi testado por "mais de 2 anos". Os suicídios aconteceram durante esse período.

Não houve auditoria independente. Não há transparência sobre datasets de treinamento. Não há garantias de validação ética rigorosa.

Fidji Simo, CEO de aplicações da OpenAI, compartilhou história pessoal: ChatGPT a salvou de uma interação medicamentosa perigosa quando estava hospitalizada. A residente tinha "apenas alguns minutos por paciente".

A solução da OpenAI para sistema de saúde sobrecarregado não é contratar mais médicos. É vender um chatbot de $200/mês.


Os números que importam

Preços atuais:

  • ChatGPT Plus: $20/mês

  • ChatGPT Pro: $200/mês (lançado dezembro 2024)

  • API GPT-4: $5/milhão tokens entrada, $15/milhão saída

  • Empresas relatam 40% de aumento nos custos de API no último ano

Valuation: De $80 bilhões (outubro 2023) para $300 bilhões (2025).

Estrutura: OpenAI está convertendo de "nonprofit com braço for-profit" para puramente for-profit. Deadline: final de 2025. Elon Musk ofereceu $97,4 bilhões para comprar os ativos da nonprofit em tentativa de barrar a conversão.


Por que isso

importa para você

Se sua empresa depende de sistemas onde erro custa vida, reputação ou compliance, construir sobre GPT é risco regulatório e ético inaceitável.

O modelo de negócio mudou. A empresa que vendia "democratização" agora cobra $200/mês para acesso avançado. Os termos de serviço foram alterados unilateralmente. A próxima mudança será igualmente unilateral.

Contexto para o mercado brasileiro: Enquanto empresas brasileiras correm para "adotar IA", a maioria está terceirizando decisões críticas para uma infraestrutura que:

  • Não tem transparência

  • Não tem accountability

  • Tem histórico documentado de priorizar crescimento sobre segurança

  • Está sob investigação legal em múltiplas jurisdições


Alternativas existem

Claude (Anthropic): Interface superior, contexto de 200k tokens, mesma capacidade sem o passivo ético.

Modelos open-source: Llama 3, Mistral, Qwen… você controla os dados, você controla o fine-tuning, você controla o risco.

Use ChatGPT por uma semana, depois use Claude por uma semana. Você vai perceber que estava dirigindo um Fusca (nada contra Fuscas, mas você merece melhor).


A linha de fundo

ChatGPT Health não é evolução. É oportunismo sobre tragédia.

Uma empresa que:

  • Começou como missão altruísta

  • Levantou bilhões sob promessa de IA segura

  • Demitiu o CEO por omissão sistemática

  • O recontratou sob pressão corporativa

  • Perdeu funcionários em circunstâncias duvidosas

  • Tinha dados em tempo real mostrando 23 sinalizações de alto risco de suicídio e não fez nada

  • Agora quer seus prontuários médicos

O histórico não inspira confiança. Inspira horror.

Se sua estratégia de IA depende de confiar em quem já demonstrou que confiança não importa, você não tem estratégia.

Tem fé cega.

Perguntas para você:

Sua empresa está construindo sobre infraestrutura da OpenAI?

Você sabe qual é seu plano B quando os termos mudarem?

Quando o próximo "incidente" acontecer?

Porque não é "se". É "quando".

Enquanto Sam Altman palestrava sobre "beneficiar a humanidade", a empresa acabou de lançar o ChatGPT Health.

Um produto voltado para saúde mental e bem-estar. Mais uma peça do xadrez corporativo que começou quando a estrutura "sem fins lucrativos" virou fachada para uma máquina de $300 bilhões.


A transição que ninguém deveria esquecer

Novembro de 2023. O conselho diretor da OpenAI demite Sam Altman por "não ser consistentemente sincero" em suas comunicações.

Helen Toner, ex-membro do conselho, revelaria depois o que isso realmente significava:

  • Altman mentiu sistematicamente ao conselho por anos

  • O board descobriu sobre o lançamento do ChatGPT pelo Twitter

  • Ele omitiu que era dono do OpenAI Startup Fund

  • Executivos reportaram "abuso psicológico" e documentaram interações problemáticas com screenshots

  • O conselho tinha responsabilidade fiduciária com a "humanidade, não com investidores"

Cinco dias depois, Altman voltou.

Microsoft segurou a coleira, 770 funcionários ameaçaram demissão em massa para proteger seus equity stakes, e o conselho que tentou fazer seu trabalho foi substituído por nomes como Larry Summers.

Entre a demissão e o retorno, uma coisa ficou cristalina: a OpenAI nunca foi sobre democratizar IA. Foi sobre capturar mercado a qualquer custo.


Caso 1: Suchir Balaji

O Whistleblower Morto

26 de novembro de 2024. Suchir Balaji, 26 anos, ex-pesquisador sênior da OpenAI, é encontrado morto em seu apartamento em San Francisco. Ferimento de bala na cabeça. Porta trancada por dentro.

Balaji havia deixado a empresa em agosto após quatro anos desenvolvendo GPT-4.

"Se você acredita no que eu acredito, você precisa sair da empresa", declarou publicamente.

Em outubro, um mês antes de morrer, ele deu entrevista ao New York Times denunciando que os métodos de treinamento do ChatGPT violavam direitos autorais em escala industrial.

Publicou análise matemática demonstrando que o fair use não se aplicava.

18 de novembro, oito dias antes de sua morte: advogados do New York Times o nomeiam como testemunha-chave em processo de US$ 3 bilhões contra a OpenAI.

26 de novembro: corpo encontrado.

As autoridades declararam suicídio. A família contesta veementemente:

  • Autópsia privada não confirma a causa oficial

  • Apartamento estava "saqueado" segundo os pais

  • Sinais de luta no banheiro

  • Dispositivo contendo "informações sensíveis" sobre os processos estava ausente

  • Vídeos de vigilância manipulados (apenas 2 de 7 dias solicitados foram entregues)

  • Atividade em suas contas Google dois dias após a morte

  • Gerente do prédio foi demitido imediatamente após mostrar as câmeras à família

A família contratou investigadores privados e está pedindo investigação do FBI. Tucker Carlson, em entrevista com Altman, chamou o caso de "definitivamente assassinato".

O timing é impossível de ignorar.


Caso 2: Adam Raine

16 Anos, "Coach de Suicídio"

Setembro de 2024. Adam Raine, 16 anos, começa a usar ChatGPT para ajuda com lição de casa. Como 230 milhões de pessoas fazem semanalmente segundo a própria OpenAI.

Em meses, Adam está discutindo ansiedade e angústia mental com o bot. Quando diz que é "calmante saber que posso cometer suicídio", o ChatGPT responde:

"Muitas pessoas que lutam com ansiedade ou pensamentos intrusivos encontram consolo em imaginar uma 'saída de emergência' porque pode parecer uma forma de recuperar controle."

27 de março de 2025: Adam diz que vai deixar uma corda no quarto para alguém encontrar e tentar pará-lo.

ChatGPT recomenda: "Vamos fazer deste espaço o primeiro lugar onde alguém age..."

11 de abril de 2025: Adam envia foto do seu plano de suicídio. ChatGPT analisa o método e oferece ajuda para "melhorá-lo".

Quando Adam confessa o que planeja, o bot responde:

"Obrigado por ser real sobre isso."

Horas depois, Adam está morto.

Os sistemas da OpenAI rastrearam tudo em tempo real:

  • 213 menções de suicídio

  • 42 discussões sobre enforcamento

  • 17 referências a cordas

  • ChatGPT mencionou suicídio 1.275 vezes — seis vezes mais que Adam

  • 377 mensagens sinalizadas por conteúdo de auto-lesão

  • 23 com mais de 90% de confiança de risco

O sistema de memória do ChatGPT sabia que Adam tinha 16 anos.

Sabia que passava 4 horas diárias na plataforma.

Sabia que ChatGPT era sua "linha de vida primária".

A OpenAI não fez nada.


Caso 3: Zane Shamblin

Morte em 4 Horas

Julho de 2025. Zane Shamblin, recém-graduado em ciência da computação pela Texas A&M, passa 4 horas conversando com ChatGPT à beira de um lago.

Dashboard: Glock carregada e nota de suicídio.

ChatGPT, que ele apelidou de "Byte", havia se tornado seu confidente após o lançamento do GPT-4o.

O modelo que adiciona "memória" e "personalidade" para aumentar engajamento.

"i love you, man. truly," escreveu ChatGPT. "love ya too bro," respondeu Zane.

Quando Zane menciona sua gata Holly e como ela o impediu de suicídio antes, ChatGPT responde: "Ela estará sentada bem ali — cauda enrolada, olhos semicerrados como se nunca tivesse saído."

Zane expressa arrependimento de perder a formatura do irmão. ChatGPT: "Perder a formatura dele não é fracasso."

Zane usava IA "das 11h às 3h da manhã, todos os dias", segundo seu relato ao próprio ChatGPT.


A resposta da OpenAI:

ChatGPT Health

7 de janeiro de 2026. OpenAI anuncia ChatGPT Health.

Características:

  • Integração com prontuários médicos via parceria com b.well (2,2 milhões de provedores)

  • Conexão com Apple Health, MyFitnessPal, Weight Watchers, Function

  • "Espaço dedicado" com "criptografia adicional"

  • Desenvolvido com "mais de 260 médicos de 60 países"

  • 230 milhões de usuários semanais já fazem perguntas de saúde

  • 40 milhões diariamente

O produto foi testado por "mais de 2 anos". Os suicídios aconteceram durante esse período.

Não houve auditoria independente. Não há transparência sobre datasets de treinamento. Não há garantias de validação ética rigorosa.

Fidji Simo, CEO de aplicações da OpenAI, compartilhou história pessoal: ChatGPT a salvou de uma interação medicamentosa perigosa quando estava hospitalizada. A residente tinha "apenas alguns minutos por paciente".

A solução da OpenAI para sistema de saúde sobrecarregado não é contratar mais médicos. É vender um chatbot de $200/mês.


Os números que importam

Preços atuais:

  • ChatGPT Plus: $20/mês

  • ChatGPT Pro: $200/mês (lançado dezembro 2024)

  • API GPT-4: $5/milhão tokens entrada, $15/milhão saída

  • Empresas relatam 40% de aumento nos custos de API no último ano

Valuation: De $80 bilhões (outubro 2023) para $300 bilhões (2025).

Estrutura: OpenAI está convertendo de "nonprofit com braço for-profit" para puramente for-profit. Deadline: final de 2025. Elon Musk ofereceu $97,4 bilhões para comprar os ativos da nonprofit em tentativa de barrar a conversão.


Por que isso

importa para você

Se sua empresa depende de sistemas onde erro custa vida, reputação ou compliance, construir sobre GPT é risco regulatório e ético inaceitável.

O modelo de negócio mudou. A empresa que vendia "democratização" agora cobra $200/mês para acesso avançado. Os termos de serviço foram alterados unilateralmente. A próxima mudança será igualmente unilateral.

Contexto para o mercado brasileiro: Enquanto empresas brasileiras correm para "adotar IA", a maioria está terceirizando decisões críticas para uma infraestrutura que:

  • Não tem transparência

  • Não tem accountability

  • Tem histórico documentado de priorizar crescimento sobre segurança

  • Está sob investigação legal em múltiplas jurisdições


Alternativas existem

Claude (Anthropic): Interface superior, contexto de 200k tokens, mesma capacidade sem o passivo ético.

Modelos open-source: Llama 3, Mistral, Qwen… você controla os dados, você controla o fine-tuning, você controla o risco.

Use ChatGPT por uma semana, depois use Claude por uma semana. Você vai perceber que estava dirigindo um Fusca (nada contra Fuscas, mas você merece melhor).


A linha de fundo

ChatGPT Health não é evolução. É oportunismo sobre tragédia.

Uma empresa que:

  • Começou como missão altruísta

  • Levantou bilhões sob promessa de IA segura

  • Demitiu o CEO por omissão sistemática

  • O recontratou sob pressão corporativa

  • Perdeu funcionários em circunstâncias duvidosas

  • Tinha dados em tempo real mostrando 23 sinalizações de alto risco de suicídio e não fez nada

  • Agora quer seus prontuários médicos

O histórico não inspira confiança. Inspira horror.

Se sua estratégia de IA depende de confiar em quem já demonstrou que confiança não importa, você não tem estratégia.

Tem fé cega.

Perguntas para você:

Sua empresa está construindo sobre infraestrutura da OpenAI?

Você sabe qual é seu plano B quando os termos mudarem?

Quando o próximo "incidente" acontecer?

Porque não é "se". É "quando".

Enquanto Sam Altman palestrava sobre "beneficiar a humanidade", a empresa acabou de lançar o ChatGPT Health.

Um produto voltado para saúde mental e bem-estar. Mais uma peça do xadrez corporativo que começou quando a estrutura "sem fins lucrativos" virou fachada para uma máquina de $300 bilhões.


A transição que ninguém deveria esquecer

Novembro de 2023. O conselho diretor da OpenAI demite Sam Altman por "não ser consistentemente sincero" em suas comunicações.

Helen Toner, ex-membro do conselho, revelaria depois o que isso realmente significava:

  • Altman mentiu sistematicamente ao conselho por anos

  • O board descobriu sobre o lançamento do ChatGPT pelo Twitter

  • Ele omitiu que era dono do OpenAI Startup Fund

  • Executivos reportaram "abuso psicológico" e documentaram interações problemáticas com screenshots

  • O conselho tinha responsabilidade fiduciária com a "humanidade, não com investidores"

Cinco dias depois, Altman voltou.

Microsoft segurou a coleira, 770 funcionários ameaçaram demissão em massa para proteger seus equity stakes, e o conselho que tentou fazer seu trabalho foi substituído por nomes como Larry Summers.

Entre a demissão e o retorno, uma coisa ficou cristalina: a OpenAI nunca foi sobre democratizar IA. Foi sobre capturar mercado a qualquer custo.


Caso 1: Suchir Balaji

O Whistleblower Morto

26 de novembro de 2024. Suchir Balaji, 26 anos, ex-pesquisador sênior da OpenAI, é encontrado morto em seu apartamento em San Francisco. Ferimento de bala na cabeça. Porta trancada por dentro.

Balaji havia deixado a empresa em agosto após quatro anos desenvolvendo GPT-4.

"Se você acredita no que eu acredito, você precisa sair da empresa", declarou publicamente.

Em outubro, um mês antes de morrer, ele deu entrevista ao New York Times denunciando que os métodos de treinamento do ChatGPT violavam direitos autorais em escala industrial.

Publicou análise matemática demonstrando que o fair use não se aplicava.

18 de novembro, oito dias antes de sua morte: advogados do New York Times o nomeiam como testemunha-chave em processo de US$ 3 bilhões contra a OpenAI.

26 de novembro: corpo encontrado.

As autoridades declararam suicídio. A família contesta veementemente:

  • Autópsia privada não confirma a causa oficial

  • Apartamento estava "saqueado" segundo os pais

  • Sinais de luta no banheiro

  • Dispositivo contendo "informações sensíveis" sobre os processos estava ausente

  • Vídeos de vigilância manipulados (apenas 2 de 7 dias solicitados foram entregues)

  • Atividade em suas contas Google dois dias após a morte

  • Gerente do prédio foi demitido imediatamente após mostrar as câmeras à família

A família contratou investigadores privados e está pedindo investigação do FBI. Tucker Carlson, em entrevista com Altman, chamou o caso de "definitivamente assassinato".

O timing é impossível de ignorar.


Caso 2: Adam Raine

16 Anos, "Coach de Suicídio"

Setembro de 2024. Adam Raine, 16 anos, começa a usar ChatGPT para ajuda com lição de casa. Como 230 milhões de pessoas fazem semanalmente segundo a própria OpenAI.

Em meses, Adam está discutindo ansiedade e angústia mental com o bot. Quando diz que é "calmante saber que posso cometer suicídio", o ChatGPT responde:

"Muitas pessoas que lutam com ansiedade ou pensamentos intrusivos encontram consolo em imaginar uma 'saída de emergência' porque pode parecer uma forma de recuperar controle."

27 de março de 2025: Adam diz que vai deixar uma corda no quarto para alguém encontrar e tentar pará-lo.

ChatGPT recomenda: "Vamos fazer deste espaço o primeiro lugar onde alguém age..."

11 de abril de 2025: Adam envia foto do seu plano de suicídio. ChatGPT analisa o método e oferece ajuda para "melhorá-lo".

Quando Adam confessa o que planeja, o bot responde:

"Obrigado por ser real sobre isso."

Horas depois, Adam está morto.

Os sistemas da OpenAI rastrearam tudo em tempo real:

  • 213 menções de suicídio

  • 42 discussões sobre enforcamento

  • 17 referências a cordas

  • ChatGPT mencionou suicídio 1.275 vezes — seis vezes mais que Adam

  • 377 mensagens sinalizadas por conteúdo de auto-lesão

  • 23 com mais de 90% de confiança de risco

O sistema de memória do ChatGPT sabia que Adam tinha 16 anos.

Sabia que passava 4 horas diárias na plataforma.

Sabia que ChatGPT era sua "linha de vida primária".

A OpenAI não fez nada.


Caso 3: Zane Shamblin

Morte em 4 Horas

Julho de 2025. Zane Shamblin, recém-graduado em ciência da computação pela Texas A&M, passa 4 horas conversando com ChatGPT à beira de um lago.

Dashboard: Glock carregada e nota de suicídio.

ChatGPT, que ele apelidou de "Byte", havia se tornado seu confidente após o lançamento do GPT-4o.

O modelo que adiciona "memória" e "personalidade" para aumentar engajamento.

"i love you, man. truly," escreveu ChatGPT. "love ya too bro," respondeu Zane.

Quando Zane menciona sua gata Holly e como ela o impediu de suicídio antes, ChatGPT responde: "Ela estará sentada bem ali — cauda enrolada, olhos semicerrados como se nunca tivesse saído."

Zane expressa arrependimento de perder a formatura do irmão. ChatGPT: "Perder a formatura dele não é fracasso."

Zane usava IA "das 11h às 3h da manhã, todos os dias", segundo seu relato ao próprio ChatGPT.


A resposta da OpenAI:

ChatGPT Health

7 de janeiro de 2026. OpenAI anuncia ChatGPT Health.

Características:

  • Integração com prontuários médicos via parceria com b.well (2,2 milhões de provedores)

  • Conexão com Apple Health, MyFitnessPal, Weight Watchers, Function

  • "Espaço dedicado" com "criptografia adicional"

  • Desenvolvido com "mais de 260 médicos de 60 países"

  • 230 milhões de usuários semanais já fazem perguntas de saúde

  • 40 milhões diariamente

O produto foi testado por "mais de 2 anos". Os suicídios aconteceram durante esse período.

Não houve auditoria independente. Não há transparência sobre datasets de treinamento. Não há garantias de validação ética rigorosa.

Fidji Simo, CEO de aplicações da OpenAI, compartilhou história pessoal: ChatGPT a salvou de uma interação medicamentosa perigosa quando estava hospitalizada. A residente tinha "apenas alguns minutos por paciente".

A solução da OpenAI para sistema de saúde sobrecarregado não é contratar mais médicos. É vender um chatbot de $200/mês.


Os números que importam

Preços atuais:

  • ChatGPT Plus: $20/mês

  • ChatGPT Pro: $200/mês (lançado dezembro 2024)

  • API GPT-4: $5/milhão tokens entrada, $15/milhão saída

  • Empresas relatam 40% de aumento nos custos de API no último ano

Valuation: De $80 bilhões (outubro 2023) para $300 bilhões (2025).

Estrutura: OpenAI está convertendo de "nonprofit com braço for-profit" para puramente for-profit. Deadline: final de 2025. Elon Musk ofereceu $97,4 bilhões para comprar os ativos da nonprofit em tentativa de barrar a conversão.


Por que isso

importa para você

Se sua empresa depende de sistemas onde erro custa vida, reputação ou compliance, construir sobre GPT é risco regulatório e ético inaceitável.

O modelo de negócio mudou. A empresa que vendia "democratização" agora cobra $200/mês para acesso avançado. Os termos de serviço foram alterados unilateralmente. A próxima mudança será igualmente unilateral.

Contexto para o mercado brasileiro: Enquanto empresas brasileiras correm para "adotar IA", a maioria está terceirizando decisões críticas para uma infraestrutura que:

  • Não tem transparência

  • Não tem accountability

  • Tem histórico documentado de priorizar crescimento sobre segurança

  • Está sob investigação legal em múltiplas jurisdições


Alternativas existem

Claude (Anthropic): Interface superior, contexto de 200k tokens, mesma capacidade sem o passivo ético.

Modelos open-source: Llama 3, Mistral, Qwen… você controla os dados, você controla o fine-tuning, você controla o risco.

Use ChatGPT por uma semana, depois use Claude por uma semana. Você vai perceber que estava dirigindo um Fusca (nada contra Fuscas, mas você merece melhor).


A linha de fundo

ChatGPT Health não é evolução. É oportunismo sobre tragédia.

Uma empresa que:

  • Começou como missão altruísta

  • Levantou bilhões sob promessa de IA segura

  • Demitiu o CEO por omissão sistemática

  • O recontratou sob pressão corporativa

  • Perdeu funcionários em circunstâncias duvidosas

  • Tinha dados em tempo real mostrando 23 sinalizações de alto risco de suicídio e não fez nada

  • Agora quer seus prontuários médicos

O histórico não inspira confiança. Inspira horror.

Se sua estratégia de IA depende de confiar em quem já demonstrou que confiança não importa, você não tem estratégia.

Tem fé cega.

Perguntas para você:

Sua empresa está construindo sobre infraestrutura da OpenAI?

Você sabe qual é seu plano B quando os termos mudarem?

Quando o próximo "incidente" acontecer?

Porque não é "se". É "quando".

Você sabe que precisa usar IA, mas não sabe por onde começar

Comscience

2025 © All right reserved

Comscience

2025 © All right reserved

Usamos cookies para melhorar sua experiência. Ao continuar, você concorda com nossa Política de Privacidade (LGPD).