Inteligência artificial já está entre nós e ela é racista

A Inteligência Artificial (AI) é a construção de computadores, algoritmos e robôs que imitam a inteligência observada em humanos, como aprender, resolver problemas e racionalizar. Ao contrário da computação tradicional, a IA pode tomar decisões em uma variedade de situações que não foram pré-programadas por um humano.

Existem duas formas de IA, Inteligência Artificial Fraca e a  Inteligência Artificial Forte. A Inteligência Artificial Fraca está relacionada com a construção de máquinas ou softwares de certa forma inteligentes, porém, eles não são capazes de raciocinar por si próprios. Por outro lado, a Inteligência Artificial Forte está relacionada à criação de máquinas que tenham autoconsciência e que possam pensar; e não somente simular raciocínios.

Enquanto cientistas e vozes mais proeminentes da indústria tecnológica estão preocupadas com o futuro potencial apocalíptico da IA Forte (inteligência Artificial Forte), há menos atenção dada aos problemas gerados pela IA Fraca de como evitar que esses programas amplifiquem as desigualdades do nosso passado e afetem os membros mais “vulneráveis” da nossa sociedade.

O CEO da Tesla, Elon Musk, descreveu a inteligência artificial como “o maior risco que enfrentamos como civilização” e pediu uma intervenção governamental rápida e decisiva para supervisionar o desenvolvimento da tecnologia.

Por enquanto, vamos focar nos problemas que temos agora com IA Fraca, porque a Inteligência Artificial Forte é uma aposta para o futuro. Neste sentido, é imperativo que essas preocupações não seja só de cientistas e pessoas ligadas as industrias tecnológicas, mas de todas as pessoas.

Problemas gerados pela IA Fraca.

Programas desenvolvidos por empresas na vanguarda da pesquisa de IA resultaram em uma série de erros que parecem estranhamente os mais obscuros preconceitos da humanidade:

Um programa de reconhecimento de imagens do Google classificou os rostos de vários negros como gorilas; um programa de publicidade do LinkedIn mostrou uma preferência por nomes masculinos em buscas, e um chat da Microsoft chamado Tay passou um dia aprendendo no Twitter e começou a enviar mensagens anti-semitas.

Esses incidentes foram todos rapidamente solucionados pelas empresas envolvidas e geralmente foram considerados “gafes“. Mas a revelação do Compas e o estudo de Lum sugerem um problema muito maior, demonstrando como os programas podem replicar o tipo de preconceitos sistémicos em grande escala que as pessoas passaram décadas fazendo para educar ou legislar.

Os dados que alimentamos as máquinas refletem a história de nossa própria sociedade desigual, estamos, na verdade, pedindo ao programa que aprenda nossos próprios preconceitos e racismo.

CONTINUA: Por que a Inteligência Artificial é racista?

Por Hernani Francisco da Silva – Ativista Quântico Negro – Do Afrokut

(Visited 5 times, 1 visits today)
Compartilhe nas suas Redes Sociais:
0

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *