Ir para o conteúdo

Os peritos apelam a uma maior diversidade para combater os preconceitos na inteligência artificial

A inteligência artificial promete remodelar rapidamente a nossa sociedade, mas com essa promessa vem o desafio de confrontar e desmantelar preconceitos que podem ser codificados na tecnologia emergente, dizem os especialistas.

A IA é informada pelos dados em que se baseia e, por vezes, esses dados podem ser tendenciosos e....aussiedlerbote.de
A IA é informada pelos dados em que se baseia e, por vezes, esses dados podem ser tendenciosos e defeituosos. Os especialistas apelam a uma maior diversidade no sector para combater os preconceitos na IA..aussiedlerbote.de

Os peritos apelam a uma maior diversidade para combater os preconceitos na inteligência artificial

"Trabalhei em muitos projectos de IA nos últimos 25 anos e não mais de dois [dos meus colegas] eram parecidos comigo", disse Lawrence, que é negro.

A inteligência artificial tem a promessa de remodelar rapidamente a nossa sociedade, mas com essa promessa, disse Lawrence, vem o desafio de confrontar e desmantelar preconceitos que podem ser codificados na tecnologia emergente.

Lawrence é o autor do livro "Hidden in White Sight", que examina a forma como a IA contribui para o racismo sistémico.

A IA é informada pelos dados em que se baseia e, por vezes, esses dados podem ser racistas, sexistas e imperfeitos.

Em agosto, uma mãe negra em Detroit processou a cidade depois que ela disse que foi falsamente presa quando estava grávida de oito meses porque os policiais a ligaram a um crime por meio de tecnologia de reconhecimento facial. Mais tarde, o chefe da polícia de Detroit culpou o "mau trabalho de investigação".

Um estudo de 2022 concluiu que um robô treinado por IA tinha mais probabilidades de associar os homens negros a criminosos ou as mulheres a donas de casa. A equipa de investigadores concluiu que a utilização continuada deste tipo de tecnologia poderia "amplificar estereótipos malignos" que alimentam o racismo e a misoginia.

Na cidade de Nova Iorque, o departamento de saúde local alargou recentemente uma coligação que contesta os algoritmos clínicos que se ajustam à raça, porque dizem que os resultados são frequentemente prejudiciais para as pessoas de cor. De acordo com uma declaração do Departamento de Saúde e Higiene Mental da cidade de Nova Iorque, estes algoritmos têm demonstrado sobrestimar a saúde de uma pessoa de cor, o que pode causar um atraso no tratamento.

Em uma declaração compartilhada com a CNN, um porta-voz da OpenAI, a empresa por trás do ChatGPT e outros modelos de inteligência geral artificial (AGI), disse que o preconceito é uma questão significativa em toda a indústria e a OpenAI se dedica a "pesquisar e reduzir o preconceito e outros riscos em nossos modelos".

"Estamos continuamente iterando em nossos modelos para reduzir o preconceito e mitigar resultados prejudiciais", disse a empresa em um comunicado, acrescentando que para cada novo modelo lançado, a OpenAI publica pesquisas sobre como eles estão trabalhando para atingir esses objetivos.

A melhor maneira de garantir que a IA reflita as experiências das pessoas de cor, disse Lawrence, é garantir que elas sejam empregadas e envolvidas em todas as etapas do processo.

"Você certamente não tem muitos negros ou cientistas de dados participando do processo de implantação e design de soluções de IA", disse ele. "A única maneira de fazer com que eles tenham assentos à mesa é educá-los."

Aumentar a diversidade

Estudos descobriram que a falta de diversidade e representação nas áreas de tecnologia começa bem antes da faculdade. Os estudantes de cor geralmente têm menos acesso a cursos básicos de ciência da computação no ensino médio, descobriu um relatório de 2023 da Code.org Advocacy Coalition.

Enquanto 89% dos estudantes asiáticos e 82% dos estudantes brancos tiveram acesso a esses cursos, respetivamente, 78% dos estudantes negros e hispânicos e 67% dos estudantes nativos americanos tiveram esse mesmo privilégio.

"Estas oportunidades não estão distribuídas de forma homogénea, e isso é um problema", afirmou Andres Lombana-Bermudez, professor associado do Centro Berkman Klein para a Internet e a Sociedade da Universidade de Harvard.

Essa disparidade no acesso também pode fazer com que menos pessoas de cor estudem ciência da computação e inteligência artificial no nível universitário, disse Lombana-Bermudez.

Em 2022, mais de dois terços de todos os doutoramentos em ciência da computação, engenharia informática ou informação nos Estados Unidos foram atribuídos a residentes não permanentes nos EUA para os quais não existe etnia disponível, de acordo com o inquérito Taulbee da 2022 Computing Research Association.

Cerca de 19% dos diplomas foram atribuídos a doutorandos brancos e 10,1% a candidatos asiáticos, em comparação com apenas 1,7% para os licenciados hispânicos e 1,6% para os licenciados negros.

Lawrence disse acreditar que a diversificação no domínio da inteligência artificial pode tornar a tecnologia mais segura e mais ética.

Lawrence disse que fundou a organização sem fins lucrativos AI 4 Black Kids, que trabalha para educar crianças negras sobre inteligência artificial e aprendizado de máquina desde tenra idade, com a esperança de um dia aumentar a representação no campo.

"A IA é treinada em tão poucos pontos de vista históricos ... o objetivo para mim é ter mais pessoas negras envolvidas nesse processo", disse ele.

A organização sem fins lucrativos oferece programas de orientação para crianças de 5 a 19 anos, bem como bolsas de estudo e aconselhamento universitário, disse Lawrence.

Combater o preconceito na IA requer não apenas o aumento da diversidade racial, mas também uma diversidade de pensamento, disse Lombana-Bermudez. Ele encoraja a contratação de sociólogos, advogados, cientistas políticos e outros tipos de académicos orientados para as humanidades para ajudar a contribuir para a conversa em torno da IA e da ética.

Lombana-Bermudez disse que a sua esperança é que as gerações futuras possam aliviar alguns dos problemas de preconceito e inacessibilidade, porque estão a crescer ao lado da tecnologia.

"Tenho esperança que isto mude e que, no futuro, tenhamos tecnologias melhores", afirmou. "Mas é uma luta, e não é fácil. É complexo".

Leia também:

Fonte: edition.cnn.com

Comentários

Mais recente

 Neste foto ilustrativa tirada em 15 de setembro de 2017, o símbolo do aplicativo Telegram é...

O Telegram serve como uma plataforma para operações comerciais clandestinas para sindicatos criminosos em todo o Sudeste Asiático, segundo a afirmação da ONU.

Síndicatos do crime organizado na Ásia sudeste aproveitam significativamente o aplicativo de mensagens Telegram, o que resulta em uma significativa mudanças em como eles participam de operações ilícitas em grande escala, segundo um comunicado emitido pelas Nações Unidas na segunda-feira.

Membros Pública
Rodrigo Duterte, presidente das Filipinas, pronuncia discurso em reunião no Base Aérea de Villamor,...

O ex-presidente das Filipinas, Duterte, pretende concorrer ao cargo de prefeito, ignorando sua controversa história de campanha fatal contra as drogas.

Em um movimento que surpreendeu muitos, o ex-presidente das Filipinas Rodrigo Duterte declarou sua intenção de concorrer ao cargo de prefeito em seu distrito natal, apesar da investigação em andamento pelo Tribunal Penal Internacional sobre sua famosa campanha contra as drogas, que alguns...

Membros Pública