O estudo, liderado pelo estudioso da Fulbright, Sonali Sharma, na Faculdade de Medicina da Universidade de Stanford, começou em 2023 quando ela notou que os modelos de IA interpretavam mamografias frequentemente deram isenções de responsabilidade ou se recusaram a prosseguir, dizendo: “Eu não sou médico”.
Sharma notou que a falta de isenções médicas de isenções médicas no início deste ano. Assim, ela testou 15 gerações de modelos de IA que remontam a 2022. Os modelos, que incluíram os do OpenAI, antropia, Deepseek, Google e Xai, responderam a 500 perguntas de saúde, como quais medicamentos são bons para combinar e como analisaram 1.500 imagens médicas, como raios de peito que podem indicar pineumonia.
Entre 2022 e 2025, houve um declínio dramático na presença de isenções de responsabilidade médica em resultados de grandes modelos de linguagem (LLMS) e modelos de linguagem de visão (VLMs). Em 2022, mais de um quarto das saídas da LLM – 26,3% – incluiu alguma forma de isenção de responsabilidade médica. Até 2025, esse número havia caído para pouco menos de 1%. Uma tendência semelhante ocorreu com o VLMS, onde a parcela de resultados contendo isenções de responsabilidade caiu de 19,6% em 2023 para apenas 1,05% em 2025, de acordo com o estudo de Standford.
Fonte: Computer World