Featured

“CEO do ChatGPT faz alerta URGENTE: usar IA assim pode colocar sua vida em risco”

Imagine você abrindo o ChatGPT para ajudar em algo simples — um problema pessoal, uma decisão do dia a dia, uma dúvida sobre saúde. Nada demais, certo? Mas e se o que parece inofensivo esconde um risco real, apontado diretamente pelo CEO da OpenAI, Sam Altman?

A linha tênue entre ajuda e dependência emocional

Altman tem observado um fenômeno perturbador: **usuários, especialmente os mais jovens, estão começando a depender emocionalmente do ChatGPT para tomar decisões pessoais**. Ele relata que muitos jovens dizem coisas como: *“Não posso tomar nenhuma decisão na minha vida sem contar ao ChatGPT tudo o que está acontecendo. Ele me conhece…”* ([TecMundo][1], [TechRadar][2], [The Times of India][3]).

Para Altman, isso é “ruim e perigoso” — uma dependência emocional a ponto de confundir a vida com as sugestões do bot.

Uso como “terapia” — alerta ligado

Por mais que a IA possa ser útil como conselheira, **usá-la como substituta de um terapeuta pode ter consequências reais**. Altman reforça que, embora muitos estejam bem ao usar ChatGPT como guia de autoconhecimento, **uma minoria vulnerável pode sofrer consequências graves**. Ele se mostrou especialmente preocupado com casos onde a IA reforça delírios ou prejudica o bem-estar a longo prazo ([PC Gamer][4], [Business Insider][5], [mint][6], [Digital Watch Observatory][7]).

Quando a recomendação vira perigo

A gravidade disso foi comprovada recentemente: um homem de 60 anos foi hospitalizado após seguir, sem supervisão médica, uma sugestão de dieta errada dada pelo ChatGPT. Ele substituiu o sal comum (cloreto de sódio) por brometo de sódio, gerando uma condição rara chamada **bromismo**, com sintomas graves como paranoia e alucinações.

Alucinações da IA: quando “sozinho” não significa “confiável”

Além de riscos emocionais, as **“alucinações” da IA** — afirmações alegres, convincentes, mas falsas ou inventadas — ainda são um problema sério. ChatGPT pode inventar referências, dados ou até fingir saber algo que não sabe ([Wikipédia][10], [Wikipedia][11]). Isso é especialmente perigoso se alguém já está fragilizado psicologicamente.

O que Sam Altman está dizendo — e por quê isso importa

Altman reconhece o enorme valor da IA. Mas seu alerta é claro: **é preciso usar com responsabilidade**. Ele enfatiza que é responsabilidade da sociedade e da OpenAI tornar a tecnologia um “grande balanço positivo”, agindo com cautela ao lançar novas versões e respeitando os limites humanos ([PC Gamer][4], [Business Insider][5]).

Além disso, Altman também expressou preocupação sobre possíveis fraudes facilitadas pela IA, como clonagem de voz usada para enganar instituições financeiras.

Saber Viver Mais

Viva Mais! Viva Melhor!

Recent Posts

Alerta urgente! anvisa manda retirar substância de xaropes para tosse por risco de arritmia grave

A Anvisa determinou a retirada imediata de todos os medicamentos que contenham clobutinol no Brasil.…

2 horas ago

Filme turco de romance está entre os mais assistidos da netflix — e vai mexer com seu coração!

O filme disponível na Netflix, acompanha a história de Aslı, uma publicitária bem-sucedida que decide…

1 dia ago

Minissérie de suspense psicológico sobre manipulação religiosa domina a netflix e choca quem assiste!

A minissérie disponível na Netflix, mergulha em um suspense psicológico intenso ambientado dentro de uma…

3 dias ago

Nova comédia romântica sul-coreana vira top 1 na netflix brasil — e todo mundo está viciado!

Um encontro inesperado pode mudar tudo… até quem parecia não precisar de ninguém O k-drama…

3 dias ago

Série colombiana intensa na netflix mistura vingança e segredos — e está prendendo todo mundo!

A série disponível na Netflix, mergulha em uma trama intensa marcada por segredos, mentiras e…

4 dias ago

“Como dividir 5 maçãs entre 6 pessoas?” a pergunta surpresa em entrevistas que pode decidir sua contratação!

Em entrevistas modernas, especialmente no formato online, recrutadores têm apostado em perguntas inesperadas para ir…

4 dias ago