Featured

“CEO do ChatGPT faz alerta URGENTE: usar IA assim pode colocar sua vida em risco”

Imagine você abrindo o ChatGPT para ajudar em algo simples — um problema pessoal, uma decisão do dia a dia, uma dúvida sobre saúde. Nada demais, certo? Mas e se o que parece inofensivo esconde um risco real, apontado diretamente pelo CEO da OpenAI, Sam Altman?

A linha tênue entre ajuda e dependência emocional

Altman tem observado um fenômeno perturbador: **usuários, especialmente os mais jovens, estão começando a depender emocionalmente do ChatGPT para tomar decisões pessoais**. Ele relata que muitos jovens dizem coisas como: *“Não posso tomar nenhuma decisão na minha vida sem contar ao ChatGPT tudo o que está acontecendo. Ele me conhece…”* ([TecMundo][1], [TechRadar][2], [The Times of India][3]).

Para Altman, isso é “ruim e perigoso” — uma dependência emocional a ponto de confundir a vida com as sugestões do bot.

Uso como “terapia” — alerta ligado

Por mais que a IA possa ser útil como conselheira, **usá-la como substituta de um terapeuta pode ter consequências reais**. Altman reforça que, embora muitos estejam bem ao usar ChatGPT como guia de autoconhecimento, **uma minoria vulnerável pode sofrer consequências graves**. Ele se mostrou especialmente preocupado com casos onde a IA reforça delírios ou prejudica o bem-estar a longo prazo ([PC Gamer][4], [Business Insider][5], [mint][6], [Digital Watch Observatory][7]).

Quando a recomendação vira perigo

A gravidade disso foi comprovada recentemente: um homem de 60 anos foi hospitalizado após seguir, sem supervisão médica, uma sugestão de dieta errada dada pelo ChatGPT. Ele substituiu o sal comum (cloreto de sódio) por brometo de sódio, gerando uma condição rara chamada **bromismo**, com sintomas graves como paranoia e alucinações.

Alucinações da IA: quando “sozinho” não significa “confiável”

Além de riscos emocionais, as **“alucinações” da IA** — afirmações alegres, convincentes, mas falsas ou inventadas — ainda são um problema sério. ChatGPT pode inventar referências, dados ou até fingir saber algo que não sabe ([Wikipédia][10], [Wikipedia][11]). Isso é especialmente perigoso se alguém já está fragilizado psicologicamente.

O que Sam Altman está dizendo — e por quê isso importa

Altman reconhece o enorme valor da IA. Mas seu alerta é claro: **é preciso usar com responsabilidade**. Ele enfatiza que é responsabilidade da sociedade e da OpenAI tornar a tecnologia um “grande balanço positivo”, agindo com cautela ao lançar novas versões e respeitando os limites humanos ([PC Gamer][4], [Business Insider][5]).

Além disso, Altman também expressou preocupação sobre possíveis fraudes facilitadas pela IA, como clonagem de voz usada para enganar instituições financeiras.

Saber Viver Mais

Viva Mais! Viva Melhor!

Recent Posts

Milagre científico: garoto de 13 anos vence câncer cerebral considerado incurável

O impossível aconteceu — e está inspirando o mundo inteiro. Lucas Jemeljanova, um menino belga…

9 horas ago

O Gramado-Cadeira de Xangai: quando o descanso vira arte urbana

Em meio à pressa e aos arranha-céus de Xangai, surge uma ideia simples, mas revolucionária:…

1 dia ago

A série da Netflix baseada em fatos reais que revela o lado sombrio do amor

Há histórias que a gente não apenas assiste… a gente sente. E Maid, minissérie da…

1 dia ago

Cientistas brasileiros criam tratamento que pode frear o Alzheimer e devolver memórias perdidas!

Um novo raio de esperança: tratamento brasileiro promete frear o Alzheimer e devolver memórias perdidas…

1 dia ago

O experimento que prova: suas palavras têm poder real

O homem que acreditava que a água podia ouvir nosso coração Pouca gente sabe, mas…

4 dias ago

Adeus Agulhas! Cientistas Criam Vacina Inovadora Usando Fio Dental

O que os cientistas fizeram 1.Ideia de usar a gengiva como porta de entrada Os…

4 dias ago