23/11/2021 . Notícia
Acontece na próxima terça-feira, 19 de julho, a partir das 14h, a defesa da tese de doutorado do aluno Jefferson Lima, que abordará os “Desafios Para a Adoção de Inteligência Artificial Pelo Sistema Único de Saúde (SUS): ética, transparência e interpretabilidade” para o Programa de Pós-Graduação em Informação e Comunicação em Saúde – PPGICS.
Orientado por Marcel Pedroso e tendo como segundo orientador Christovam Barcellos, Lima busca “identificar os fatores, técnicos, regulatórios e éticos que podem contribuir para a construção de um ambiente mais adequado para o desenvolvimento da IA nos serviços de saúde”, a partir da análise do funcionamento dos métodos de interpretabilidade para os modelos de IA, reconhecidamente pouco transparentes (black boxes). Ele também tenta compreender como o funcionamento desses métodos, podem impactar os serviços de saúde. Para isso, ele criou um experimento contrafactual relacionado à “multiplicidade preditiva e consistência de explicações por meio de listas de importância dos atributos de quatro dos principais modelos de predição (classificação)”.
A defesa terá transmissão pela Plataforma Zoom. Seguem outras informações sobre a defesa de Jefferson Lima:
Título: Desafios Para a Adoção de Inteligência Artificial Pelo Sistema Único de Saúde (SUS): ética, transparência e interpretabilidade
Aluno: Jefferson da Costa Lima
Orientador: Marcel de Moraes Pedroso (PPGICS/ICICT/FIOCRUZ)
Segundo Orientador: Christovam de Castro Barcellos Neto (PPGICS/ICICT/FIOCRUZ)
Banca:
Titulares
Dr. Rodrigo Murtinho de Martinez Torres (PPGICS/ICICT/FIOCRUZ)
Dr. Ricardo Antunes Dantas de Oliveira (PPGICS/ICICT/FIOCRUZ)
Dr. Flávio du Pin Calmon (SEAS/HARVAD)
Dr. Alexandre Dias Porto Chiavegatto Filho (LABDAPS/FSP/USP)
Dr. Fábio André Machado Porto (DEXL/LNCC)
Suplentes
Drª Renata de Saldanha da Gama Gracie Carrijo (PPGICS/ICICT/FIOCRUZ)
Dr. Eduardo Soares Ogasawara (PPCIC/CEFET-RJ)
Data: 19/07/2022 – 3a. feira | Horário: 14h
Resumo: Nos últimos anos, aplicações que utilizam componentes baseados em Inteligência Artificial (IA) têm se tornado onipresentes em nosso cotidiano. No campo da saúde, ao mesmo tempo em que a IA pode promover enormes avanços, uma questão que se apresenta, e que é desafiadora para a sua adoção, é fazer com que o seu uso seja justo e não discriminatório contra pessoas, grupos, comunidades, populações e instituições.
Outra característica marcante é que parte do êxito recente das aplicações baseadas em IA está relacionada a modelos cada vez mais complexos, sacrificando o entendimento humano sobre o seu funcionamento. Em áreas potencialmente sensíveis como a saúde, a falta de transparência é uma limitação que pode ocultar tratamentos discriminatórios ou, por falta de confiança na solução, funcionar como uma barreira para a adoção da tecnologia, o que pode levar a perda de enormes oportunidades para a melhoria do acesso aos serviços de saúde.
Esta pesquisa, no primeiro momento, se concentra em identificar os fatores, técnicos, regulatórios e éticos, que podem contribuir para a construção de um ambiente mais adequado para o desenvolvimento da IA nos serviços de saúde. Em seguida, busca compreender como o funcionamento dos métodos de interpretabilidade, que podem fornecer, para modelos de IA reconhecidamente pouco transparentes (black boxes), alguma interpretabilidade e como isso pode impactar os serviços de saúde. Para isso, foi criado um experimento contrafactual relacionado a multiplicidade preditiva e consistência de explicações por meio de listas de importância dos atributos de quatro dos principais modelos de predição (classificação).
Esta é uma pesquisa construída com um olhar para o Sistema Único de Saúde (SUS) e, especialmente, o seu princípio doutrinário da Equidade. Com isso, esperamos que o uso de IA na saúde possa contribuir para mitigar os efeitos das iniquidades sociais e econômicas, não para perpetuá-las ou agravá-las, ao criar um ambiente mais transparente e confiável.