Imagine você abrindo o ChatGPT para ajudar em algo simples — um problema pessoal, uma decisão do dia a dia, uma dúvida sobre saúde. Nada demais, certo? Mas e se o que parece inofensivo esconde um risco real, apontado diretamente pelo CEO da OpenAI, Sam Altman?
A linha tênue entre ajuda e dependência emocional
Altman tem observado um fenômeno perturbador: **usuários, especialmente os mais jovens, estão começando a depender emocionalmente do ChatGPT para tomar decisões pessoais**. Ele relata que muitos jovens dizem coisas como: *“Não posso tomar nenhuma decisão na minha vida sem contar ao ChatGPT tudo o que está acontecendo. Ele me conhece…”* ([TecMundo][1], [TechRadar][2], [The Times of India][3]).
Para Altman, isso é “ruim e perigoso” — uma dependência emocional a ponto de confundir a vida com as sugestões do bot.
Uso como “terapia” — alerta ligado
Por mais que a IA possa ser útil como conselheira, **usá-la como substituta de um terapeuta pode ter consequências reais**. Altman reforça que, embora muitos estejam bem ao usar ChatGPT como guia de autoconhecimento, **uma minoria vulnerável pode sofrer consequências graves**. Ele se mostrou especialmente preocupado com casos onde a IA reforça delírios ou prejudica o bem-estar a longo prazo ([PC Gamer][4], [Business Insider][5], [mint][6], [Digital Watch Observatory][7]).
Quando a recomendação vira perigo
A gravidade disso foi comprovada recentemente: um homem de 60 anos foi hospitalizado após seguir, sem supervisão médica, uma sugestão de dieta errada dada pelo ChatGPT. Ele substituiu o sal comum (cloreto de sódio) por brometo de sódio, gerando uma condição rara chamada **bromismo**, com sintomas graves como paranoia e alucinações.
Alucinações da IA: quando “sozinho” não significa “confiável”
Além de riscos emocionais, as **“alucinações” da IA** — afirmações alegres, convincentes, mas falsas ou inventadas — ainda são um problema sério. ChatGPT pode inventar referências, dados ou até fingir saber algo que não sabe ([Wikipédia][10], [Wikipedia][11]). Isso é especialmente perigoso se alguém já está fragilizado psicologicamente.
O que Sam Altman está dizendo — e por quê isso importa
Altman reconhece o enorme valor da IA. Mas seu alerta é claro: **é preciso usar com responsabilidade**. Ele enfatiza que é responsabilidade da sociedade e da OpenAI tornar a tecnologia um “grande balanço positivo”, agindo com cautela ao lançar novas versões e respeitando os limites humanos ([PC Gamer][4], [Business Insider][5]).
Além disso, Altman também expressou preocupação sobre possíveis fraudes facilitadas pela IA, como clonagem de voz usada para enganar instituições financeiras.
A Anvisa determinou a retirada imediata de todos os medicamentos que contenham clobutinol no Brasil.…
O filme disponível na Netflix, acompanha a história de Aslı, uma publicitária bem-sucedida que decide…
A minissérie disponível na Netflix, mergulha em um suspense psicológico intenso ambientado dentro de uma…
Um encontro inesperado pode mudar tudo… até quem parecia não precisar de ninguém O k-drama…
A série disponível na Netflix, mergulha em uma trama intensa marcada por segredos, mentiras e…
Em entrevistas modernas, especialmente no formato online, recrutadores têm apostado em perguntas inesperadas para ir…