A masculinização da Inteligência Artificial

  • Categoria do post:AASP

Especialistas debatem sobre a influência dos vieses de gênero nos algoritmos.

­

Para falar sobre a masculinização da inteligência artificial (IA) e a influência que as pessoas programadoras exercem nos algoritmos, a Associação dos Advogados de São Paulo (AASP) convidou as advogadas Priscila Reis e Tainá Aguiar Junquilho. O painel do Mês da Mulher AASP aconteceu de forma virtual, na noite de quinta-feira (23/3), sob a moderação de Cristiano Carlos Kozan, Conselheiro Substituto da AASP.

­

Doutora em Direito com ênfase em Inteligência Artificial, Tainá inicia sua fala tratando do surgimento da IA em meados da década de 1950. A pesquisadora explica que a maioria dos modelos de aprendizado de máquina tem por base um conjunto de dados e “como as tecnologias de captura e armazenamento de dados à época da descoberta não eram muito evoluídas, esse conceito sofreu uma baixa e agora volta, a partir de 2016, com a Era do Big Data”, afirma.

­

Tainá define a IA como “um conceito guarda-chuva que abrange vários modelos, entre eles o aprendizado de máquina”, alertando para o equívoco de se pensar que essa tecnologia é capaz, nos dias atuais, de imitar o pensamento humano, tal qual se propaga pela mídia. Assim a advogada considera que, se a IA depende de dados para se alimentar, e esses dados abarcam vieses (conscientes ou inconscientes), isso irá afetar algumas decisões no campo de coleta de dados, processamento e desenvolvimento de sistemas, rastreamento dos modelos, entre outros.

­

Ela acrescenta que tais vieses nem sempre serão negativos. “O efeito de determinado viés e sua relevância vai ser analisado em cada caso. Quanto mais automatizado e menos vigiado por um humano, maior a probabilidade que haja efeitos negativos, injustos e indesejados”, alerta. E de onde surge a discriminação na IA? Tainá explica que esse efeito se dá em razão do excesso ou escassez de dados sob a questão que se analisa. “Se a gente está falando sobre aprendizado de máquina, que usa uma base de dados para treinar o algoritmo, inserir mais ou menos dados que o necessário pode criar um algoritmo enviesado”, afirma.

­

Além da quantidade de dados, as pessoas que estão por trás dessa IA também podem influenciar para que ela seja discriminatória. “Se o time de desenvolvedores não é inclusivo, essas pessoas vão acabar inserindo seus preconceitos ali, e o sistema não vai ser plural”, alerta Tainá. A pesquisadora finaliza apresentando casos reais de discriminação em assistentes virtuais e chatbots, e defende a inclusão do design ético da IA no rol de direitos fundamentais como forma de coibir essa discriminação.

­

Mestre em Tecnologias da Inteligência e Design Digital, Priscila Reis – segunda painelista – explicou que “a masculinização da IA é a tendência do sistema de reforçar estereótipos e preconceitos de gênero”. De acordo com a expert, uma das explicações para esse fenômeno reside no fato de que as posições nas áreas de tecnologia são ocupadas, predominantemente, por homens (segundo dados da pesquisa elaborada pela Eurostat e pela Unesco). Fatores sociais e culturais também foram considerados pela advogada como passíveis de exercer influência na discriminação. “Se a gente tem uma cultura machista, o sistema vai aprender e entregar resultados com base nessa história que foi contada para ele”, alerta.

­

A advogada prossegue sua fala elencando problemas associados à discriminação gerada pela IA, como perpetração de vieses que já estão inseridos na sociedade, reforço das estruturas de poder, invisibilidade das necessidades de grupos sub-representados no desenvolvimento de IA, entre outros. “Nosso papel é fazer com que, no futuro, não perpetuemos isso”, finaliza.

­

Os painéis do Mês da Mulher AASP continuam com temas atuais e relevantes. Para acessar a programação, clicando aqui.



Compartilhe