fbpx

A Ameaça das Inteligências Artificiais

Desde sempre o cinema nos conta histórias fantásticas e a ficção sempre foi um estilo que intrigou e atraiu muito o público. Filmes com abordagem futurística, temáticas inovadoras e embates entre criadores e máquinas. São uma fórmula de sucesso para produções como: Blade Runner, Exterminador do Futuro, Matrix e Eu, Robô.

Mas qual o ponto interessante que esses filmes têm em comum? Inteligências Artificiais. Algo que na maioria das vezes são contextualizados com máquinas sendo rivais dos seres humanos. Como o passar dos anos essas produções foram entrando em diversas camadas desse subgênero da ficção e assim que cada camada ia sendo rompida, mais assustadoras iam ficando as tramas. Sempre com narrativas tendo a premissa de que máquinas queriam erradicar os humanos.

Então o medo das A.I. é um tema que muitas pessoas não se importam muito na vida real, afinal certos sistemas computacionais usados no mundo todo como algoritmos avançados de busca, sistemas de reconhecimento faciais e softwares avançados de estudos espaciais são muitos comuns, e seriam indispensáveis para vendas online, segurança pública e monitoramento do espaço.

cerebro-ia-300x173 A Ameaça das Inteligências ArtificiaisTraçando o paralelo entre a realidade e a ficção, mais precisamente tomando como base para essa ficção os filmes produzidos com base nessa temática, temos na grande maioria das vezes humanos sendo perseguidos, escravizados ou no mínimo sofrendo algum de tipo de retaliação por parte de máquinas que conseguiram evoluir seus sistemas e ficaram autossuficientes, ou seja, inteligentes. E nessas realidades ficcionais as máquinas, que a partir daqui irei chamar de robôs, recebem esse dom de autossuficiência dos humanos.

No que se refere a essas realidades ficcionais, o fato de os humanos serem constantemente obliterados nos remete a criação dos robôs, antes nos auxiliando em tarefas de segurança, proteção e bem estar, logo que estabelecidas essas inteligências artificiais elas passam a nos ver como a causa dos problemas de segurança e então nos extinguir torna-se a missão primordial dos robôs como forma de proteção. O criador passa a ser caçado pela criatura.

Seria essa premissa de anular e suprimir seus criadores uma herança humana na programação dos robôs?

Voltando um pouco para a nossa realidade, existem pesquisas imensas voltadas para fazerem os robôs pensarem por si próprio em diversos níveis de interesse. Atualmente inúmeros campos de atividades humanas dependem de robôs. Hoje análises e julgamentos de casos criminais e estudos de quadros clínicos indecifráveis em pacientes são feitos a partir da utilização de sistemas computacionais avançados. Existe um exemplo que foi divulgado onde um robô confundiu por meio da análise de uma foto, um Huscky Siberiano com um Lobo. Essa confusão intrigou os pesquisadores e cientistas que pediram para o robô demonstrar por qual motivo essa cachorro era para ele um lobo. E os dados apresentados deixaram claro que não eram semelhanças físicas e anatômicas que poderiam existir entre as duas espécies e sim a neve que estavam como plano de fundo e presa aos pelos do animal. Levando em conta que a neve representava um fator extra e percentualmente até não representativo, ocorreu ai um erro no sistema desse robô que nesse caso não gerou nenhum tipo de risco aos cães e lobos.

Erros em sistemas como esses podem ser muito perigosos, pois em penitências de trinta estados americanos são usados sistemas de definição de sentenças prisionais para criminosos, onde como base em cálculos esse presos são avaliados se podem ou não voltar a cometer um novo crime. Esse sistema mostrou dados de que um afro americano possui 77% mais chances de cometer um novo crime. E esse sistema criado por humanos não havia nas suas linhas de códigos esse tipo de informação. Essas linhas de códigos que descrevem um afro americano com potencial maior de cometer atos violentos e crimes novamente, também não foram corrigidas, pois foi alegado que o sistema demonstrou eficiência e esses dados foram divulgados por um relatório sobre ferramentas algorítmicas de avaliação de risco no sistema de justiça criminal nos EUA.

Mas o que não se pode deixar de se levar em consideração é o fato de além do sistema prisional outros sistemas como o bancário também utiliza robôs de similar função, mas no que diz respeito à liberação de créditos e empréstimos. Agências de empregos com acesso a grande volumes de ofertas de vagas em âmbitos nacionais também utilizam sistemas parecidos para definir se você tem o perfil certo para determinadas vagas com base na cor da sua pele, por um robô ter avaliado.

Sistema similar está em teste em vários modelos de carros autômatos, que definem qual tipo de objetos podem ou não serem desviados no trajeto dos carros. Um caso curioso foi de um robô da marca Promobot atropelado por um carro autônomo da Tesla. Os Promobot são modelos e robôs autônomos que são utilizados no mundo todo em aeroportos, museus, feiras e supermercados. Nesse incidente o algoritmo de reconhecimento de grupamento do carro não considerou o robô autônomo como um alvo a ser desviado e o atropelou.

cerebro-ia-300x173 A Ameaça das Inteligências ArtificiaisVoltando ao caso do Huscky que foi confundido com um Lobo, tomando como base esse erro na programação do robô em confundir os animais, seria muito provável que fatos menos representativos poderiam associar uma pessoa usando uma determinada roupa, como um casaco alongado com cores metalizadas, por exemplo, e esta fosse identificada como um objeto e não uma pessoa. Assim o carro autônomo não consideraria mudar sua trajetória, pois os objetos na sua programação, dependendo do porte não oferece risco à continuidade da rota do carro.

Os erros da vida real podem conferir as pessoas riscos potenciais como o fato de uma avaliação errada na progressão de uma pena, liberação de crédito para quitação de outras dividas menores, empregabilidade e até no caso dos carros autônomos, riscos diretos a vida.

A ONU junto das lideranças dos países que nela são associados assumiu a tarefa de regulamentar políticas internacionais no que diz respeito às tecnologias robóticas. O que torna as coisas um pouco mais complicadas no que diz respeito a esses julgamentos dos robôs. É a forma como eles não conseguem transmitir dados que explica o motivo da tomada de decisões como a confusão do cachorro com o lobo, o que torna difícil a resolução desses erros nos sistemas. E uma política internacional, uma normatização, irá dar mais credibilidade aos sistemas e tornar eles além de seguros mais confiáveis.

Se tomarmos como base um estudo pós-segunda guerra poderemos ter uma breve noção da causa desses sistemas não serem questionados. A Experiência de Milgram foi uma experiência científica desenvolvida pelo psicólogo Stanley Milgram. A experiência tinha como objetivo responder à questão de como é que os participantes observados tendem a obedecer às autoridades, mesmo que as suas ordens contradigam o bom senso individual. E no caso dos robôs é quase igual, temos sistemas que não fazem reflexões e tomam decisões com base nas informações de suas programações, assim o sistema pode definir que afroamericanos não tendem a melhorar sua conduta e voltar a cometer crimes, baseados em dados não lidos novamente, apenas presumidos e passados como informação definitiva.

Portanto, esperamos correções nestes sistemas, mas ainda há muito a se avançar nesta área.

cerebro-ia-300x173 A Ameaça das Inteligências Artificiais

Ex aluno da Casa Kame, mestre de obras da reforma do QG dos Vingadores e nortenho porque me lembrei.

João Ferreira

Ex aluno da Casa Kame, mestre de obras da reforma do QG dos Vingadores e nortenho porque me lembrei.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *