Featured

“CEO do ChatGPT faz alerta URGENTE: usar IA assim pode colocar sua vida em risco”

Imagine você abrindo o ChatGPT para ajudar em algo simples — um problema pessoal, uma decisão do dia a dia, uma dúvida sobre saúde. Nada demais, certo? Mas e se o que parece inofensivo esconde um risco real, apontado diretamente pelo CEO da OpenAI, Sam Altman?

A linha tênue entre ajuda e dependência emocional

Altman tem observado um fenômeno perturbador: **usuários, especialmente os mais jovens, estão começando a depender emocionalmente do ChatGPT para tomar decisões pessoais**. Ele relata que muitos jovens dizem coisas como: *“Não posso tomar nenhuma decisão na minha vida sem contar ao ChatGPT tudo o que está acontecendo. Ele me conhece…”* ([TecMundo][1], [TechRadar][2], [The Times of India][3]).

Para Altman, isso é “ruim e perigoso” — uma dependência emocional a ponto de confundir a vida com as sugestões do bot.

Uso como “terapia” — alerta ligado

Por mais que a IA possa ser útil como conselheira, **usá-la como substituta de um terapeuta pode ter consequências reais**. Altman reforça que, embora muitos estejam bem ao usar ChatGPT como guia de autoconhecimento, **uma minoria vulnerável pode sofrer consequências graves**. Ele se mostrou especialmente preocupado com casos onde a IA reforça delírios ou prejudica o bem-estar a longo prazo ([PC Gamer][4], [Business Insider][5], [mint][6], [Digital Watch Observatory][7]).

Quando a recomendação vira perigo

A gravidade disso foi comprovada recentemente: um homem de 60 anos foi hospitalizado após seguir, sem supervisão médica, uma sugestão de dieta errada dada pelo ChatGPT. Ele substituiu o sal comum (cloreto de sódio) por brometo de sódio, gerando uma condição rara chamada **bromismo**, com sintomas graves como paranoia e alucinações.

Alucinações da IA: quando “sozinho” não significa “confiável”

Além de riscos emocionais, as **“alucinações” da IA** — afirmações alegres, convincentes, mas falsas ou inventadas — ainda são um problema sério. ChatGPT pode inventar referências, dados ou até fingir saber algo que não sabe ([Wikipédia][10], [Wikipedia][11]). Isso é especialmente perigoso se alguém já está fragilizado psicologicamente.

O que Sam Altman está dizendo — e por quê isso importa

Altman reconhece o enorme valor da IA. Mas seu alerta é claro: **é preciso usar com responsabilidade**. Ele enfatiza que é responsabilidade da sociedade e da OpenAI tornar a tecnologia um “grande balanço positivo”, agindo com cautela ao lançar novas versões e respeitando os limites humanos ([PC Gamer][4], [Business Insider][5]).

Além disso, Altman também expressou preocupação sobre possíveis fraudes facilitadas pela IA, como clonagem de voz usada para enganar instituições financeiras.

Saber Viver Mais

Viva Mais! Viva Melhor!

Recent Posts

Neurologista de Harvard alerta: este erro ao dormir pode acelerar o Alzheimer

## O que diz o neurologista Pedro Schestatsky? O neurologista **Pedro Schestatsky**, com pós-doutorado em…

21 minutos ago

Já na Netflix: O filme de ação mais premiado e insano dos últimos 5 anos!

Em Tenet (2020), Christopher Nolan transforma o tempo em arma e campo de batalha. Um…

4 horas ago

Saiba o que significa ter pelos crescendo no queixo (e quando se preocupar)

Ter pelos crescendo no queixo é algo comum, especialmente entre mulheres após a puberdade ou…

2 dias ago

Mãe que vendeu filha de 6 apenas por R$ 1.500 por “olhos e pele” é condenada pela Justiça – saiba qual foi a punição

Caso Joshlin Smith: A Tragédia que Chocou a África do Sul Em fevereiro de 2024,…

2 dias ago

7 Sinais psicológicos de que seu parceiro pode não querer mais ficar com você

Quando o Amor Começa a Sair de Cena: Como Identificar os Sinais de Que Seu…

3 dias ago

7 alimentos que ajudam a manter a mente jovem

🧠✨ Quer turbinar sua mente? Certos alimentos são verdadeiros aliados da memória, do foco e…

4 dias ago