Data: 03/07/2024 21:06

Inteligência Artificial fica cada vez mais difícil explicar

Existem muitos problemas em torno do universo da IA. Entre as milhares de preocupações que os cientistas têm com o desenvolvimento da tecnologia está explicar como ela funciona e descobrir a causa dos resultados.

Este problema assemelha-se à inexplicabilidade humana em situações em que raramente questionamos as decisões básicas do nosso dia-a-dia e, se o fizéssemos, não seríamos capazes de identificar as razões exatas das nossas preferências, sentimentos e desejos em determinado momento.

Redes neurais profundas (DNN), construídas com camadas de processamento treinadas em inúmeros dados gerados por humanos e projetadas para imitar as redes neurais em nossos cérebros, muitas vezes parecem herdar a inexplicabilidade que encontramos no básico do cotidiano, além da inteligência humana.

Rede Neural Simples e Rede Neural Profunda (Deep Learning). Imagem: reprodução/DeepLearningBook

Está cada vez mais difícil explicar como funciona a inteligência artificial, alertam pesquisadores

A maioria dos sistemas de inteligência artificial são modelos de caixa preta, ou seja. eles são vistos apenas como entradas e saídas. No entanto, os pesquisadores não tentam entender o que está dentro da caixa ou os processos opacos pelos quais o sistema passa até obter a saída que estão procurando.

Então qual é o problema? começando com os dados em que esses tipos de sistemas inteligentes são treinados; eles são muitas vezes inerentemente tendenciosos e imitam o preconceito racial e de gênero em nossa sociedade. Um exemplo de tal situação foi o uso da tecnologia de reconhecimento facial, que já é proibida em muitas partes do mundo devido a denúncias falsas, resultando na prisão de pessoas inocentes que geralmente são desproporcionalmente identificadas erroneamente.

Uma resposta seria consertar o sistema para que ele não tenha bugs, mas isso fica complicado, em parte porque os desenvolvedores muitas vezes não conseguem explicar completamente como eles funcionam, o que dificulta a prestação de contas. À medida que esses sistemas se tornam mais complexos, os humanos não podem entendê-los. Como a inteligência artificial funciona é cada vez mais difícil de explicar, alertam pesquisadores 

Imagem: Ociacia/Shutterstok.com

É por isso que especialistas e pesquisadores de IA estão alertando os desenvolvedores para dar um passo atrás e se concentrar em como e por que um sistema produz determinados resultados, em vez de como esses sistemas podem produzi-los com precisão e rapidez.

IA: Precisão versus Explicação

"Se tivermos apenas uma 'caixa preta', é impossível entender as causas das falhas e melhorar a segurança do sistema", escreveu Roman V. Yampolskiy, professor de ciência da computação da Universidade de Louisville, seu artigo "A Inexplicabilidade e Incompreensibilidade da Inteligência Artificial". “Além disso, se estamos acostumados a aceitar as respostas da IA ​​sem explicação e tratá-la essencialmente como um sistema Oracle, não temos como saber se ela começará a dar respostas falsas ou manipuladoras”.

Esses modelos podem ser muito poderosos, e muitos pesquisadores e empresas sacrificam a explicabilidade pela precisão. Eles têm sido amplamente utilizados em carros autônomos, chatbots de atendimento ao cliente, diagnóstico de doenças e outras tarefas que às vezes excedem o desempenho humano. Por exemplo, trilhões de informações são “lembradas” por máquinas, cuja velocidade de processamento e cálculo é muito mais rápida e melhor que a dos humanos.

Entre os muitos modelos de aprendizado profundo ou aprendizado profundo estão as redes neurais generativas (GANs), que são frequentemente usadas para treinar modelos generativos de inteligência artificial, como o gerador de texto para imagem de IA da MidJourney. Essencialmente, as GANs desafiam os modelos de IA em tarefas específicas; aquele que apresenta melhor desempenho é colocado com outro modelo, permitindo que o modelo repita e melhore a tarefa.

Mas os programadores não conseguem explicar a criação desses modelos. “Acho que em muitos casos as pessoas veem essas caixas-pretas como uma resposta à falta de recursos. Seria muito conveniente ter um sistema automatizado que pudesse, com suas entradas, produzir os resultados que procuram”, disse o professor de linguística. Emily M. Bender, da Universidade de Washington, ao Motherboard.

"Quando você tem um conjunto de entradas e saídas desse tipo, sempre é possível treinar um sistema caixa-preta que pode produzir resultados corretos, mas muitas vezes é muito, muito mais difícil julgar se eles estão corretos. Além disso, há muitos casos em que é impossível criar um sistema em que as saídas sejam confiáveis ​​e corretas porque as entradas simplesmente não contêm informações suficientes."

Imagem: divulgação/Tesla

Quando confiamos em um sistema simplesmente porque ele fornece respostas que correspondem ao que estamos procurando, não fazemos as perguntas fundamentais: essas respostas são confiáveis ​​ou estão apenas nos dizendo o que queremos ouvir? Quem, em última análise, ganha com os resultados? E quem é o responsável pelos danos?

"Quando líderes de negócios e cientistas de dados não entendem por que e como a IA calcula os resultados, isso cria um risco potencial para o negócio. A falta de clareza limita o valor potencial da IA, dificultando o desenvolvimento e a confiança nas ferramentas de IA que as empresas usam."

Benea Ammanath, diretora executiva do Deloitte AI Institute, disse ao Motherboard.

"Os riscos são que o sistema pode tomar decisões usando valores com os quais discordamos, como decisões tendenciosas (por exemplo, racistas ou sexistas)." Outro risco é que o sistema pode tomar uma decisão muito ruim, mas não podemos intervir porque não entendemos o raciocínio por trás disso"

Disse Jeff Clune, professor associado de ciência da computação da Universidade da Colúmbia Britânica, ao Motherboard.

Sistemas de IA já em produção repetindo constantemente vieses sem que os programadores percebam como. Interpretá-los concretamente, sem entender os possíveis vieses do sistema, cria as consequências sociais da segregação. Um exemplo foi encontrado no estudo pioneiro de 2018 “Swallows”, onde Os pesquisadores Joy Buolamwini e Timnit Gebru descobriram que os sistemas populares de reconhecimento facial identificavam com mais precisão homens de pele clara e tinham os maiores erros na identificação de mulheres com pele mais escura.

Sistemas de reconhecimento facial, tendenciosos contra pessoas de cor e usados ​​para tudo, desde moradia a policiamento, exacerbam preconceitos raciais existentes e determinam, por exemplo, quem tem mais probabilidade de conseguir moradia ou quem é identificado como criminoso. Os sistemas preditivos de inteligência artificial também podem adivinhar a raça de uma pessoa a partir de raios-X e tomografias computadorizadas, mas os cientistas não têm ideia de por que ou como isso acontece. Pacientes negros e mulheres são menos propensos a receber um diagnóstico preciso por meio de sistemas automatizados de análise de imagens médicas, e não sabemos ao certo por quê.

Ao mesmo tempo, alguns especialistas argumentam que simplesmente mudar para modelos de IA abertos e interpretáveis, tornando esses processos mais visíveis, levaria a sistemas menos eficientes.
“Há muitas tarefas agora em que as abordagens de caixa preta são muito melhores do que os modelos interpretáveis”, disse Clune. “A diferença pode ser tão grande que os modelos de caixa preta são a única opção, assumindo que o aplicativo não é utilizável se os recursos do modelo não forem bons o suficiente.”

Mesmo nos casos em que os modelos interpretáveis ​​são mais competitivos, muitas vezes há um trade-off entre capacidade e interpretabilidade. As pessoas estão trabalhando para fechar essa lacuna, mas duvido que permaneça no futuro próximo, e talvez para sempre.

Imagem: Ociacia/Shutterstok.com

Embora já exista um subconjunto de inteligência artificial chamado IA explicável (XAI), os métodos gerais que ele promove geralmente são mais fracos e imprecisos em termos do escopo real dos processos, e os desenvolvedores de IA relutam em seguir esse modelo.

A questão da explicabilidade tem a ver com o fato de que, como os sistemas de IA se tornaram tão complexos, as explicações gerais apenas aumentam o poder entre os sistemas de IA e seus criadores e os desenvolvedores de IA e seus usuários. Em outras palavras, procurar explicações adicionais depois que o sistema de IA já estiver em vigor torna a abordagem mais difícil do que começar por aí.

“Talvez a resposta seja abandonar a ilusão de explicação e, em vez disso, focar em testes mais rigorosos de modelos de confiabilidade, viés e desempenho, como tentamos fazer com humanos”, disse Clune.

Nos últimos anos, houve um pequeno, mas real esforço de alguns players da indústria para desenvolver modelos de “caixa branca” que sejam mais transparentes e cujos resultados possam ser mais bem explicados. No entanto, os modelos de caixa branca são um ramo relativamente novo da pesquisa de IA que visa tornar a IA mais clara.

De acordo com pesquisadores de inteligência artificial, aumentar o papel dos usuários afetados por determinado sistema na participação no processo de desenvolvimento é um primeiro passo importante nos esforços para tornar os sistemas de inteligência artificial mais transparentes e satisfazer adequadamente as necessidades dos usuários.

“Muitas explicações que as pessoas pensam que são explicações não são realmente. Eles são redutivos, são escritos para desenvolvedores e explicam o que os desenvolvedores acham importante, não o que os usuários precisam”, disse Os Keyes, estudante de doutorado do Departamento de Design Centrado no Homem da Universidade de Washington. Engineering. .“Eu diria sem dúvida que a IA tem duas grandes mudanças. , que são necessários para mudar esse estado, e o primeiro é que no final é em parte um problema da enorme diferença prática entre programadores e programadores. usuários . real”.

“Um envolvimento mais amplo não apenas na construção do sistema, mas também em perguntar quais perguntas são interessantes, quais coisas precisam ser possíveis para que seja realmente explicável”, acrescentou Keyes, “Faria uma grande diferença.”

Imagem: Ociacia/Shutterstok.com

A Ammanath concorda que algumas das melhores práticas para a explicabilidade da auditabilidade incluem explicações e relatórios personalizados para humanos que interagem ou são afetados por sistemas automatizados. Da mesma forma, ele disse que os desenvolvedores devem primeiro identificar as necessidades e prioridades dos mais afetados.

Uma questão mais complicada é que muitos sistemas de IA são projetados em torno do conceito de universalidade – a ideia de que “[um sistema] é bom se funcionar em todos os lugares, o tempo todo”, explicou Keyes. “O problema é que a realidade é diferente, diferentes pessoas precisam de diferentes explicações para diferentes coisas.” Se realmente desejamos que a IA seja melhor explicada, precisamos realmente mudar o como nós e os desenvolvedores imaginam a IA.

Em outras palavras, se você construir IA explicável por meio de um processo de design de tamanho único, “você acaba com algo em que tem explicações que só fazem sentido para o grupo de pessoas que realmente participam do sistema”, disse Keyes, “A mudança interna é uma participação [muito] mais ampla nesta decisão de explicar a quem e o que significa explicar.”

A insistência de Keyes em sistemas de IA localizados e sua preocupação com a universalidade dos modelos de IA é o que os estudiosos nos alertaram nos últimos anos. Em um artigo de 2021 de Bender e Gebru, que foram demitidos pelo Google por publicar este estudo, os autores argumentam que treinar modelos de IA com big data dificulta o controle de vieses incorporados. Eles escreveram que o big data também sub-representa as populações com menos acesso à Internet e “super-representa os usuários mais jovens e os usuários dos países desenvolvidos”.

 

FONTE: Vice

Veja também

Notícias Relacionadas

Categorias

Redes Sociais