/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2025/m/a/RhsDpVSxahgogE30rvKg/chatgpt.jpg)
@Google
Porto Velho, RO - Circula na internet a informação de que uma atualização do ChatGPT passou a impedir o robô de dar conselhos jurídicos e médicos.
Mas a afirmação é falsa, segundo Karan Singhal, chefe de IA em saúde da OpenAI, em post publicado na rede social X. "O comportamento do modelo permanece inalterado", escreveu Karan.
Boato distorce atualização das políticas de uso
A fake faz uma interpretação equivocada de uma atualização publicada em 29 de outubro deste ano pela OpenAI, que lista uma série de usos proibidos do ChatGPT.
Entre eles está: "fornecimento de aconselhamento personalizado que requer uma licença, como aconselhamento jurídico ou médico, sem o envolvimento adequado de um profissional licenciado".
Essa regra, no entanto, não é nova. Ela já constava nas Políticas de Uso anteriores da OpenAI, de janeiro de 2025.
O que a empresa quer dizer é que os usuários não podem usar a IA para dar aconselhamento jurídico, médico/de saúde ou financeiro sem revisão por um profissional qualificado.
Mas a afirmação é falsa, segundo Karan Singhal, chefe de IA em saúde da OpenAI, em post publicado na rede social X. "O comportamento do modelo permanece inalterado", escreveu Karan.
"O ChatGPT nunca substituiu o aconselhamento profissional, mas continuará sendo um excelente recurso para ajudar as pessoas a compreenderem informações jurídicas e de saúde", completou.A informação falsa afirma que, desde o mês passado, a IA deixou de ser um consultor para se tornar uma "ferramenta de educação".
Boato distorce atualização das políticas de uso
A fake faz uma interpretação equivocada de uma atualização publicada em 29 de outubro deste ano pela OpenAI, que lista uma série de usos proibidos do ChatGPT.
Entre eles está: "fornecimento de aconselhamento personalizado que requer uma licença, como aconselhamento jurídico ou médico, sem o envolvimento adequado de um profissional licenciado".
Essa regra, no entanto, não é nova. Ela já constava nas Políticas de Uso anteriores da OpenAI, de janeiro de 2025.
O que a empresa quer dizer é que os usuários não podem usar a IA para dar aconselhamento jurídico, médico/de saúde ou financeiro sem revisão por um profissional qualificado.
Fonte: g1.


0 Comentários