A OpenAI anunciou uma mudança importante nas políticas de uso do ChatGPT, ferramenta de inteligência artificial que vem ganhando popularidade em todo o mundo. A partir de agora, o chatbot não poderá mais oferecer orientações médicas, jurídicas ou financeiras personalizadas, ou seja, que substituam a atuação de um profissional habilitado nessas áreas. A decisão, válida globalmente, busca evitar riscos legais e garantir o uso responsável da tecnologia, especialmente em temas que envolvem saúde e direito.
De acordo com a nova política divulgada no final de outubro, o ChatGPT continuará apto a explicar conceitos e termos técnicos de maneira educativa, mas não poderá elaborar diagnósticos, prescrever tratamentos ou emitir pareceres jurídicos. A mudança ocorre após uma série de debates sobre a responsabilidade das empresas de IA frente a erros de interpretação ou conselhos incorretos que possam gerar danos reais aos usuários.
Nos Estados Unidos, por exemplo, leis recentes começaram a restringir o uso de chatbots em contextos clínicos e terapêuticos, exigindo que a interação com pacientes seja supervisionada por profissionais licenciados. A medida foi impulsionada por estudos que apontaram inconsistências e riscos em respostas automatizadas sobre temas médicos, reforçando a importância da avaliação humana.
A OpenAI destacou que o objetivo é manter a segurança e a confiabilidade das informações fornecidas pela plataforma, além de preservar o limite ético entre tecnologia e profissões regulamentadas. Embora a empresa não tenha detalhado quais mecanismos internos serão usados para identificar e restringir esse tipo de resposta, especialistas acreditam que os novos filtros de segurança do ChatGPT serão capazes de reconhecer pedidos de aconselhamento clínico ou jurídico e redirecionar o usuário para buscar ajuda profissional.
Para o público brasileiro, a mudança também traz implicações relevantes. Clínicas, escritórios e empresas que utilizam a IA em atendimentos ou serviços de suporte precisarão se adequar às novas regras. A recomendação é que o ChatGPT continue sendo usado como ferramenta de apoio informativo, para compreender termos técnicos, preparar consultas ou revisar conceitos e nunca como substituto de médicos, advogados ou outros especialistas.
A decisão da OpenAI reflete o amadurecimento do debate sobre o uso ético da inteligência artificial. À medida que a tecnologia se torna mais presente no dia a dia, cresce também a responsabilidade sobre o modo como ela é aplicada. O ChatGPT, agora com limites mais claros, reafirma seu papel como uma ferramenta educativa e de apoio, não como um consultor profissional. O recado é simples: informação, sim; diagnóstico ou parecer, jamais sem o olhar humano por trás.


