Featured

“CEO do ChatGPT faz alerta URGENTE: usar IA assim pode colocar sua vida em risco”

Imagine você abrindo o ChatGPT para ajudar em algo simples — um problema pessoal, uma decisão do dia a dia, uma dúvida sobre saúde. Nada demais, certo? Mas e se o que parece inofensivo esconde um risco real, apontado diretamente pelo CEO da OpenAI, Sam Altman?

A linha tênue entre ajuda e dependência emocional

Altman tem observado um fenômeno perturbador: **usuários, especialmente os mais jovens, estão começando a depender emocionalmente do ChatGPT para tomar decisões pessoais**. Ele relata que muitos jovens dizem coisas como: *“Não posso tomar nenhuma decisão na minha vida sem contar ao ChatGPT tudo o que está acontecendo. Ele me conhece…”* ([TecMundo][1], [TechRadar][2], [The Times of India][3]).

Para Altman, isso é “ruim e perigoso” — uma dependência emocional a ponto de confundir a vida com as sugestões do bot.

Uso como “terapia” — alerta ligado

Por mais que a IA possa ser útil como conselheira, **usá-la como substituta de um terapeuta pode ter consequências reais**. Altman reforça que, embora muitos estejam bem ao usar ChatGPT como guia de autoconhecimento, **uma minoria vulnerável pode sofrer consequências graves**. Ele se mostrou especialmente preocupado com casos onde a IA reforça delírios ou prejudica o bem-estar a longo prazo ([PC Gamer][4], [Business Insider][5], [mint][6], [Digital Watch Observatory][7]).

Quando a recomendação vira perigo

A gravidade disso foi comprovada recentemente: um homem de 60 anos foi hospitalizado após seguir, sem supervisão médica, uma sugestão de dieta errada dada pelo ChatGPT. Ele substituiu o sal comum (cloreto de sódio) por brometo de sódio, gerando uma condição rara chamada **bromismo**, com sintomas graves como paranoia e alucinações.

Alucinações da IA: quando “sozinho” não significa “confiável”

Além de riscos emocionais, as **“alucinações” da IA** — afirmações alegres, convincentes, mas falsas ou inventadas — ainda são um problema sério. ChatGPT pode inventar referências, dados ou até fingir saber algo que não sabe ([Wikipédia][10], [Wikipedia][11]). Isso é especialmente perigoso se alguém já está fragilizado psicologicamente.

O que Sam Altman está dizendo — e por quê isso importa

Altman reconhece o enorme valor da IA. Mas seu alerta é claro: **é preciso usar com responsabilidade**. Ele enfatiza que é responsabilidade da sociedade e da OpenAI tornar a tecnologia um “grande balanço positivo”, agindo com cautela ao lançar novas versões e respeitando os limites humanos ([PC Gamer][4], [Business Insider][5]).

Além disso, Altman também expressou preocupação sobre possíveis fraudes facilitadas pela IA, como clonagem de voz usada para enganar instituições financeiras.

Saber Viver Mais

Viva Mais! Viva Melhor!

Recent Posts

Anvisa proibe picolé de creatina no Brasil

O produto que prometia ser a nova moda do mundo fitness virou caso de saúde…

2 dias ago

Filme da Netflix Surpreende o Mundo: Cotado ao Oscar e Com 95% de Aprovação

Prepare-se: “Sonhos de Trem” não é apenas mais um lançamento da Netflix. É o novo…

3 dias ago

Utqiaġvik: o povoado que acaba de mergulhar em 65 dias de escuridão — e só verá o sol de novo em 23 de janeiro

Prepare-se: esta história parece tirada de um filme pós-apocalíptico, mas acontece de verdade — agora…

3 dias ago

Sem escola na infância, ela defendeu seu TCC aos 70 anos — e viralizou

Aos 70 anos, filha de quebradeira de coco babaçu apresenta TCC e quebra um ciclo…

4 dias ago

Com 60% de deserto e quase sem água, Israel faz o “milagre agrícola” moderno

Com 60% de deserto e quase sem água, Israel faz o “milagre agrícola” moderno —…

4 dias ago

5 gestos corporais para voce identificar uma pessoa invejosa

5 gestos corporais que entregam uma pessoa invejosa — e a psicologia explica cada um…

5 dias ago