Especialistas debatem sobre a influência dos vieses de gênero nos algoritmos.
Para falar sobre a masculinização da inteligência artificial (IA) e a influência que as pessoas programadoras exercem nos algoritmos, a Associação dos Advogados de São Paulo (AASP) convidou as advogadas Priscila Reis e Tainá Aguiar Junquilho. O painel do Mês da Mulher AASP aconteceu de forma virtual, na noite de quinta-feira (23/3), sob a moderação de Cristiano Carlos Kozan, Conselheiro Substituto da AASP.
Doutora em Direito com ênfase em Inteligência Artificial, Tainá inicia sua fala tratando do surgimento da IA em meados da década de 1950. A pesquisadora explica que a maioria dos modelos de aprendizado de máquina tem por base um conjunto de dados e “como as tecnologias de captura e armazenamento de dados à época da descoberta não eram muito evoluídas, esse conceito sofreu uma baixa e agora volta, a partir de 2016, com a Era do Big Data”, afirma.
Tainá define a IA como “um conceito guarda-chuva que abrange vários modelos, entre eles o aprendizado de máquina”, alertando para o equívoco de se pensar que essa tecnologia é capaz, nos dias atuais, de imitar o pensamento humano, tal qual se propaga pela mídia. Assim a advogada considera que, se a IA depende de dados para se alimentar, e esses dados abarcam vieses (conscientes ou inconscientes), isso irá afetar algumas decisões no campo de coleta de dados, processamento e desenvolvimento de sistemas, rastreamento dos modelos, entre outros.
Ela acrescenta que tais vieses nem sempre serão negativos. “O efeito de determinado viés e sua relevância vai ser analisado em cada caso. Quanto mais automatizado e menos vigiado por um humano, maior a probabilidade que haja efeitos negativos, injustos e indesejados”, alerta. E de onde surge a discriminação na IA? Tainá explica que esse efeito se dá em razão do excesso ou escassez de dados sob a questão que se analisa. “Se a gente está falando sobre aprendizado de máquina, que usa uma base de dados para treinar o algoritmo, inserir mais ou menos dados que o necessário pode criar um algoritmo enviesado”, afirma.
Além da quantidade de dados, as pessoas que estão por trás dessa IA também podem influenciar para que ela seja discriminatória. “Se o time de desenvolvedores não é inclusivo, essas pessoas vão acabar inserindo seus preconceitos ali, e o sistema não vai ser plural”, alerta Tainá. A pesquisadora finaliza apresentando casos reais de discriminação em assistentes virtuais e chatbots, e defende a inclusão do design ético da IA no rol de direitos fundamentais como forma de coibir essa discriminação.
Mestre em Tecnologias da Inteligência e Design Digital, Priscila Reis – segunda painelista – explicou que “a masculinização da IA é a tendência do sistema de reforçar estereótipos e preconceitos de gênero”. De acordo com a expert, uma das explicações para esse fenômeno reside no fato de que as posições nas áreas de tecnologia são ocupadas, predominantemente, por homens (segundo dados da pesquisa elaborada pela Eurostat e pela Unesco). Fatores sociais e culturais também foram considerados pela advogada como passíveis de exercer influência na discriminação. “Se a gente tem uma cultura machista, o sistema vai aprender e entregar resultados com base nessa história que foi contada para ele”, alerta.
A advogada prossegue sua fala elencando problemas associados à discriminação gerada pela IA, como perpetração de vieses que já estão inseridos na sociedade, reforço das estruturas de poder, invisibilidade das necessidades de grupos sub-representados no desenvolvimento de IA, entre outros. “Nosso papel é fazer com que, no futuro, não perpetuemos isso”, finaliza.
Os painéis do Mês da Mulher AASP continuam com temas atuais e relevantes. Para acessar a programação, clicando aqui.