Cidadãos Devem Definir o Futuro da Inteligência Artificial

*Victor Rizzo

A adoção da inteligência artificial em larga escala precisará da contribuição das sociedades para evitar problemas políticos, sociais e econômicos. Os algoritmos de inteligência artificial já estão em nossas vidas e em nossos celulares. Estamos vivenciando apenas o começo da era de ascensão dos algoritmos. Se por um lado os benefícios e as comodidades oferecidas por essas aplicações caem rapidamente no gosto das pessoas, por outro, os problemas que surgem a partir da ausência de regras transparentes começam a se acumular.

Mas é exatamente na grande capacidade de atrair usuários que reside, em parte, o perigo. Muitas aplicações são desenvolvidas sem regras claras ou transparentes sobre sigilo e privacidade de dados. As big techs, grandes corporações de tecnologia, têm sido sistematicamente acusadas de uso indevido das informações que coletam de seus usuários, sem que isso fique claro. Ou seja, a pessoa não tem a menor ideia que os seus dados pessoais estão sendo coletados e nem sabe onde vão parar. O caso mais notório disso foi o da venda de dados de usuários pelo Facebook para a Cambridge Analytica.

Existe, por outro lado, uma desconfiança crescente da sociedade sobre o viés de algoritmos, mesmo que as pessoas não saibam exatamente o que isso significa.

Em novembro, participei novamente do Web Summit, o maior evento de inovação tecnológica do mundo, realizado anualmente em Lisboa. O evento é repleto de superlativos: 72.000 visitantes, 1.200 palestrantes, 70 países, 2.200 startups e 1.500 investidores. Lá pude acompanhar pessoalmente algumas palestras, como a de Edward Snowden, que abriu o evento, falando sobre os grandes problemas de privacidade, ou do ex-primeiro-ministro do Reino Unido, Tony Blair, sobre a exclusão digital. Me senti obrigado a concordar que além dos grandes os avanços tecnológicos atuais, temos também imensos problemas que teremos que enfrentar e resolver como sociedade.

O Web Summit é um ambiente muito rico para identificação de grandes tendências e para ouvir pessoas do mundo todo falando sobre os novos caminhos da  tecnologia da informação.  Mas, de todos os debates que assisti, o que mais me preocupou foi um sobre a coleta de dados de usuários, realizados por diversos sites e aplicativos, que são usados pelas áreas de marketing para vender mais e mais produtos e serviços. De repente, me dei conta de como as grandes empresas de tecnologia e de marketing coletam dados em larga escala, de forma escondida dos usuários, gerando um enorme sistema de coleta de dados, digno de causar inveja a muitos governos autoritários.

Os cidadãos foram despidos de seus direitos básicos e passaram a ser chamados meramente de “consumidores”. Países e sociedades passaram a ser “mercados”. Os indivíduos são analisados como ativos de marketing, “clusterizados” em grupos de comportamentos similares. A coleta de dados tem somente dois objetivos: vender mais ou aprimorar produtos e serviços para vender mais ainda. Por trás disso, criou-se um multibilionário mercado de venda de dados, capitaneado pelas big techs, os gigantes oligopólios tecnológicos.

Até as conversas privadas são gravadas por “inocentes” assistentes inteligentes instalados dentro de sua casa e seus dados são vendidos para empresas que desejam conhecer melhor o perfil dos “clientes”. Assim, nos tornamos potenciais consumidores a partir de ferramentas criadas para nos analisar e reagir de maneira automática e “personalizada”, de forma a aumentar nosso consumo. Essa prática de simplificação e “coisificação” humana é altamente arriscada e pode nos mover, como cidadãos, a uma condição de impotência em relação a como devemos viver daqui para frente. Cria-se uma brutal assimetria de informação, na qual a ponta do cidadão é a parte mais fraca.

Precisamos realmente refletir se vamos deixar nossas vidas e intimidades nas mãos de corporações, mais poderosas que muitos governos. É importante lembrar o caso extremo das “avaliações sociais” realizadas na China e como elas são usadas como instrumento de controle social de parcelas significativas da vida no país.

É inevitável a força da inovação e os benefícios que a inteligência artificial nos trarão. Mas, pouco entendemos sobre como essas tecnologias são criadas e implementadas a partir dos objetivos puramente econômicos de seres humanos e empresas. Não podemos cair nos clichês irreais, negativos e sem embasamento científico, que a indústria cinematográfica apresenta quando trata da inteligência artificial.  Mas, por outro lado, temos que entender que as máquinas não nasceram sozinhas. Elas apenas reproduzem o viés de seus criadores, estes sim repletos de preconceitos, racismos e interesses econômicos, potencialmente obscuros. O único “crime” dos algoritmos está no fato de serem muito mais eficientes e produtivos em trabalhos de grande repetição, bem como no poder de analisar um escopo de dados muito maior do que qualquer ser humano.

Também é fundamental lembrar que as máquinas não têm autonomia para decidir. Assim, a tomada de decisão a respeito da aplicação, em primeira instância, é sempre uma prerrogativa do humano que a criou. E, seguindo essa linha de raciocínio, entendo que um dos pontos a serem questionados pela sociedade, em especial a brasileira, é: quais os modelos de vida nós desejamos seguir? Em particular nossa atenção deve recair sobre os algoritmos que têm emprego público, em larga escala, em toda a sociedade. Precisamos conhecer melhor como são desenvolvidos, que dados são coletados, o que é feito com estes dados, e se esses apresentam ou não determinado viés.

É necessário que a discussão sobre a inteligência artificial saia das salas de reuniões de executivos de empresas de tecnologia de informação, das mesas de engenheiros de software e ganhe espaço junto à sociedade. Essa última é que deverá decidir quais as prerrogativas e limites que os algoritmos deverão respeitar. É necessário também que os resultados dos algoritmos sejam auditáveis, mesmo sem conhecermos os meandros tecnológicos utilizados para sua criação. Sem o devido debate com toda a sociedade, este tipo de tecnologia tem uma enorme capacidade de criar níveis alarmantes de exclusão, desigualdades, afetar sociedades inteiras e lançar a humanidade em problemas em uma escala sem precedentes na história.

Contudo, nossa geração tem a grande oportunidade de criar algoritmos livres de viés e preconceitos e, assim, melhores do que muitos seres humanos. Isso sim, seria um grande salto para a humanidade. Mas, para que isso aconteça, temos que entender e participar mais ativamente do debate e da avaliação de algoritmos que possuem emprego público.

Quanto aos limites a serem respeitados pela tecnologia e pela coleta de dados o mundo está hoje dividido em três grandes blocos. Dos excessos de controle estatal praticados na China sobre o cidadão e a sociedade por um lado, aos não menos danosos excessos praticados pelas big techs dos Estados Unidos, um mercado sem lei, em que se pode fazer tudo sem controle. Entre os dois extremos está a Europa que tenta colocar algum tipo de regra aos excessos dos dois lados, com a adoção de uma lei de proteção de dados, a GDPR, que inspirou a nossa LGPD e de outras legislações similares. O modelo adotado pelos países na União Europeia se mostra mais equilibrado, oferecendo condições mínimas para o progresso tecnológico, sem deixar de preservar as individualidades. As leis aprovadas e as discussões sobre a ética de algoritmos (melhor dizendo, de seus criadores) servirão como guia mais seguro para permitir a inovação acontecer, balizadas pelo respeito ao cidadão e à sociedade.

No ano passado, a gigante de e-commerce Amazon precisou dar explicações sobre o viés dos algoritmos desenvolvidos para o recrutamento de novos colaboradores, pois esse apresentava uma tendência para a seleção de um percentual maior de currículos de candidatos do gênero masculino. O motivo, segundo a empresa, estava no fato de haver um número maior de currículos masculinos selecionados nos processos seletivos praticados, por seres humanos, nos últimos 10 anos. Como os dados utilizados para o treinamento do algoritmo, o chamado dataset, continham um percentual maior de currículos masculinos, o algoritmo apenas reproduziu o que recrutadores humanos já vinham fazendo.  Nada que uma análise mais criteriosa não pudesse prever e evitar. Bastaria apenas excluir o atributo gênero, deixando que a seleção fosse realizada somente com base em competências técnicas. Alguém faria a seleção dos candidatos por altura ou cor dos olhos? Claro que não! Então por que considerar o gênero como um atributo para o treinamento do algoritmo? Procedendo desta forma, ao alimentar a rede neural sem o atributo de gênero, mesmo que o dataset contivesse uma maioria de homens, o sistema seria capaz de realizar a seleção independentemente do gênero, eliminando a desproporção de gênero. Será que o algoritmo iria selecionar mais mulheres?

Na área da tecnologia, mais do que potencial para oferecer respostas, é preciso saber fazer as perguntas corretas. Um exercício ético e filosófico que não deve ficar a cargo apenas de quem atua no setor. Precisamos envolver vários segmentos da sociedade, capazes de fazer as perguntas certas para chegarmos às melhores respostas. A inovação não pode parar, mas os cidadãos precisam ser respeitados.

 

 

*Victor Rizzo é Diretor de Inovação da e-Xyon e trabalha no desenvolvimento de projetos de inteligência artificial

O retorno da LGPD e a importância do BPO…

A nova legislação traz a necessidade de se reformular processos e consolidar uma filosofia empresarial que priorize a conformidade como pilar inquebrável no cotidiano...
MariaEduarda
3 min read

O testamento como forma de evitar discussões familiares

Pensar de que forma será distribuído o patrimônio depois da morte, não é algo muito agradável de se fazer. Contudo, quando há um testamento,...
MariaEduarda
2 min read

O Seguro na Nova Era Tecnológica

Por Voltaire Marensi, Advogado e Professor Antes de adentrar no tema propriamente dito, gostaria de contextualizar nomes de dois filósofos um deles, Michel Foucault,...
MariaEduarda
1 min read

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

error: Conteúdo protegido !!