Publicações nas redes sociais distorcem uma atualização das regras de uso da IA e fazem parecer que ela deixou de oferecer orientações sobre esses temas.
@Google

Porto Velho, RO - Circula na internet a informação de que uma atualização do ChatGPT passou a impedir o robô de dar conselhos jurídicos e médicos.

Mas a afirmação é falsa, segundo Karan Singhal, chefe de IA em saúde da OpenAI, em post publicado na rede social X. "O comportamento do modelo permanece inalterado", escreveu Karan.
"O ChatGPT nunca substituiu o aconselhamento profissional, mas continuará sendo um excelente recurso para ajudar as pessoas a compreenderem informações jurídicas e de saúde", completou.
A informação falsa afirma que, desde o mês passado, a IA deixou de ser um consultor para se tornar uma "ferramenta de educação".

Boato distorce atualização das políticas de uso

A fake faz uma interpretação equivocada de uma atualização publicada em 29 de outubro deste ano pela OpenAI, que lista uma série de usos proibidos do ChatGPT.

Entre eles está: "fornecimento de aconselhamento personalizado que requer uma licença, como aconselhamento jurídico ou médico, sem o envolvimento adequado de um profissional licenciado".

Essa regra, no entanto, não é nova. Ela já constava nas Políticas de Uso anteriores da OpenAI, de janeiro de 2025.

O que a empresa quer dizer é que os usuários não podem usar a IA para dar aconselhamento jurídico, médico/de saúde ou financeiro sem revisão por um profissional qualificado.

Fonte: g1.