Ícone do site HypeScience

Reguladores Alarmados com Remédios Já Utilizando IA Para Diagnosticar Pacientes

Houve casos em que advogados utilizaram tecnologia de inteligência artificial em processos judiciais, acabando por enfrentar constrangimentos e penalidades quando as respostas geradas pela IA eram imprecisas, chegando até a criar casos jurídicos convincentes, porém inexistentes.

Agora, imagine um cenário semelhante na área da saúde. E se seu médico dependesse de um sistema de IA para interpretar seus sintomas e diagnosticar sua condição?

Essa preocupação está atualmente gerando tensão entre os reguladores, conforme destacado em um relatório envolvente da Politico. A urgência dessa questão é ressaltada pelo fato de médicos já estarem incorporando ferramentas de IA experimentais e amplamente não regulamentadas no diagnóstico de pacientes. Essa situação não é um debate futurista distante; é uma realidade imediata com potencial para se transformar em uma controvérsia significativa no campo da saúde e da regulamentação.

John Ayers, pesquisador de saúde pública da Universidade da Califórnia em San Diego, usou uma metáfora para questionar à Politico como controlar essa situação avançada sem consequências desastrosas: “O carro está tão à frente dos bois, que é como se perguntássemos como controlá-lo sem despencar no abismo?”

Uma solução lógica parece ser a regulamentação dessa tecnologia. Essa ideia recebeu apoio geral de várias entidades, desde a Casa Branca até a OpenAI.

No entanto, implementar a regulamentação é muito mais complexo do que propor. A Politico destaca um desafio crítico: produtos médicos tradicionais, como medicamentos, ferramentas cirúrgicas e outros equipamentos de saúde, geralmente são aprovados uma vez e permanecem confiáveis ao longo do tempo.

Isso não acontece com modelos de IA. Eles estão em constante evolução à medida que os desenvolvedores os modificam e inserem novos dados. Consequentemente, um sistema de IA que fornece diagnósticos precisos hoje pode falhar amanhã devido a esses ajustes contínuos. Além disso, até mesmo os desenvolvedores desses sistemas de aprendizado de máquina muitas vezes acham difícil explicar como eles funcionam.

Órgãos reguladores, como o FDA, já estão operando no limite de suas capacidades, como apontado pela Politico. A perspectiva de monitorar e testar continuamente sistemas de IA médica exigiria uma quantidade impraticável de recursos.

Então, quem supervisionará esses sistemas de IA à medida que se tornam mais integrados ao atendimento médico convencional? Uma sugestão, conforme relatado, é que escolas médicas e centros de saúde acadêmicos estabeleçam laboratórios dedicados a avaliar rotineiramente o desempenho das ferramentas de IA em saúde.

No entanto, essa solução levanta suas próprias questões. Como serão obtidos os recursos necessários? E essas instituições, predominantemente urbanas e afluentes, podem representar precisamente as diversas populações de pacientes que a IA atenderia em diferentes comunidades?

Em uma perspectiva mais ampla, a IA tem potencial para ser um recurso significativo na área da saúde. Líderes da indústria, como o CEO da OpenAI Sam Altman, especularam sobre um futuro onde a IA ofereceria orientação médica de alta qualidade para aqueles que não podem pagar por atendimento médico tradicional.

No entanto, no panorama atual, a introdução da IA na saúde sublinha as implicações desafiadoras e potencialmente críticas dessa tecnologia, especialmente em situações que envolvem decisões de vida ou morte. [Futurism]

Sair da versão mobile