Reguladores Alarmados com Remédios Já Utilizando IA Para Diagnosticar Pacientes

Por , em 22.02.2024

Houve casos em que advogados utilizaram tecnologia de inteligência artificial em processos judiciais, acabando por enfrentar constrangimentos e penalidades quando as respostas geradas pela IA eram imprecisas, chegando até a criar casos jurídicos convincentes, porém inexistentes.

Agora, imagine um cenário semelhante na área da saúde. E se seu médico dependesse de um sistema de IA para interpretar seus sintomas e diagnosticar sua condição?

Essa preocupação está atualmente gerando tensão entre os reguladores, conforme destacado em um relatório envolvente da Politico. A urgência dessa questão é ressaltada pelo fato de médicos já estarem incorporando ferramentas de IA experimentais e amplamente não regulamentadas no diagnóstico de pacientes. Essa situação não é um debate futurista distante; é uma realidade imediata com potencial para se transformar em uma controvérsia significativa no campo da saúde e da regulamentação.

John Ayers, pesquisador de saúde pública da Universidade da Califórnia em San Diego, usou uma metáfora para questionar à Politico como controlar essa situação avançada sem consequências desastrosas: “O carro está tão à frente dos bois, que é como se perguntássemos como controlá-lo sem despencar no abismo?”

Uma solução lógica parece ser a regulamentação dessa tecnologia. Essa ideia recebeu apoio geral de várias entidades, desde a Casa Branca até a OpenAI.

No entanto, implementar a regulamentação é muito mais complexo do que propor. A Politico destaca um desafio crítico: produtos médicos tradicionais, como medicamentos, ferramentas cirúrgicas e outros equipamentos de saúde, geralmente são aprovados uma vez e permanecem confiáveis ao longo do tempo.

Isso não acontece com modelos de IA. Eles estão em constante evolução à medida que os desenvolvedores os modificam e inserem novos dados. Consequentemente, um sistema de IA que fornece diagnósticos precisos hoje pode falhar amanhã devido a esses ajustes contínuos. Além disso, até mesmo os desenvolvedores desses sistemas de aprendizado de máquina muitas vezes acham difícil explicar como eles funcionam.

Órgãos reguladores, como o FDA, já estão operando no limite de suas capacidades, como apontado pela Politico. A perspectiva de monitorar e testar continuamente sistemas de IA médica exigiria uma quantidade impraticável de recursos.

Então, quem supervisionará esses sistemas de IA à medida que se tornam mais integrados ao atendimento médico convencional? Uma sugestão, conforme relatado, é que escolas médicas e centros de saúde acadêmicos estabeleçam laboratórios dedicados a avaliar rotineiramente o desempenho das ferramentas de IA em saúde.

No entanto, essa solução levanta suas próprias questões. Como serão obtidos os recursos necessários? E essas instituições, predominantemente urbanas e afluentes, podem representar precisamente as diversas populações de pacientes que a IA atenderia em diferentes comunidades?

Em uma perspectiva mais ampla, a IA tem potencial para ser um recurso significativo na área da saúde. Líderes da indústria, como o CEO da OpenAI Sam Altman, especularam sobre um futuro onde a IA ofereceria orientação médica de alta qualidade para aqueles que não podem pagar por atendimento médico tradicional.

No entanto, no panorama atual, a introdução da IA na saúde sublinha as implicações desafiadoras e potencialmente críticas dessa tecnologia, especialmente em situações que envolvem decisões de vida ou morte. [Futurism]

Deixe seu comentário!