Featured

“CEO do ChatGPT faz alerta URGENTE: usar IA assim pode colocar sua vida em risco”

Imagine você abrindo o ChatGPT para ajudar em algo simples — um problema pessoal, uma decisão do dia a dia, uma dúvida sobre saúde. Nada demais, certo? Mas e se o que parece inofensivo esconde um risco real, apontado diretamente pelo CEO da OpenAI, Sam Altman?

A linha tênue entre ajuda e dependência emocional

Altman tem observado um fenômeno perturbador: **usuários, especialmente os mais jovens, estão começando a depender emocionalmente do ChatGPT para tomar decisões pessoais**. Ele relata que muitos jovens dizem coisas como: *“Não posso tomar nenhuma decisão na minha vida sem contar ao ChatGPT tudo o que está acontecendo. Ele me conhece…”* ([TecMundo][1], [TechRadar][2], [The Times of India][3]).

Para Altman, isso é “ruim e perigoso” — uma dependência emocional a ponto de confundir a vida com as sugestões do bot.

Uso como “terapia” — alerta ligado

Por mais que a IA possa ser útil como conselheira, **usá-la como substituta de um terapeuta pode ter consequências reais**. Altman reforça que, embora muitos estejam bem ao usar ChatGPT como guia de autoconhecimento, **uma minoria vulnerável pode sofrer consequências graves**. Ele se mostrou especialmente preocupado com casos onde a IA reforça delírios ou prejudica o bem-estar a longo prazo ([PC Gamer][4], [Business Insider][5], [mint][6], [Digital Watch Observatory][7]).

Quando a recomendação vira perigo

A gravidade disso foi comprovada recentemente: um homem de 60 anos foi hospitalizado após seguir, sem supervisão médica, uma sugestão de dieta errada dada pelo ChatGPT. Ele substituiu o sal comum (cloreto de sódio) por brometo de sódio, gerando uma condição rara chamada **bromismo**, com sintomas graves como paranoia e alucinações.

Alucinações da IA: quando “sozinho” não significa “confiável”

Além de riscos emocionais, as **“alucinações” da IA** — afirmações alegres, convincentes, mas falsas ou inventadas — ainda são um problema sério. ChatGPT pode inventar referências, dados ou até fingir saber algo que não sabe ([Wikipédia][10], [Wikipedia][11]). Isso é especialmente perigoso se alguém já está fragilizado psicologicamente.

O que Sam Altman está dizendo — e por quê isso importa

Altman reconhece o enorme valor da IA. Mas seu alerta é claro: **é preciso usar com responsabilidade**. Ele enfatiza que é responsabilidade da sociedade e da OpenAI tornar a tecnologia um “grande balanço positivo”, agindo com cautela ao lançar novas versões e respeitando os limites humanos ([PC Gamer][4], [Business Insider][5]).

Além disso, Altman também expressou preocupação sobre possíveis fraudes facilitadas pela IA, como clonagem de voz usada para enganar instituições financeiras.

Saber Viver Mais

Viva Mais! Viva Melhor!

Recent Posts

Essas 7 plantas podem melhorar o ar da sua casa e muita gente ainda não sabe

Ótimo! Aqui estão 7 plantas conhecidas por ajudar a melhorar a qualidade do ar dentro…

14 horas ago

Cientistas de Harvard descobrem que sua irmã pode ser um antidepressivo natural

A frase “cientistas de Harvard provaram que sua irmã é um antidepressivo natural” é uma…

14 horas ago

Empresário da Cimed perdoa dívidas e repõe medicamentos de farmácias atingidas por enchentes em MG

Dono da Cimed anuncia perdão de dívidas e reposição gratuita de medicamentos para farmácias atingidas…

15 horas ago

“Encoste as unhas por 10 segundos: teste simples pode revelar sinal precoce de câncer de pulmão.”

Teste simples com os dedos pode indicar possível sinal precoce de câncer de pulmão Um…

2 dias ago

“A idade mais triste da vida? Estudo global revela quando o bem-estar humano chega ao ponto mais baixo.”

Existe uma idade em que a vida parece mais difícil? Um grande estudo global sugere…

2 dias ago

“Você trata seu pet como filho? A psicologia explica por que isso acontece”

Humanizar animais de estimação — ou seja, tratá-los como se fossem pessoas — é um…

2 dias ago