IPCA
0,83 Mar.2024
Topo

4 dicas para nos darmos bem com nossos futuros colegas de trabalho: robôs

Zaria Gorvett

Da BBC Capital

07/07/2018 17h30

Madaline foi a primeira. Em 1959, ela usou sua surpreendente inteligência para resolver uma questão até então sem solução: o eco nas linhas telefônicas. Na época, as chamadas interurbanas eram muitas vezes arruinadas pelo som da própria voz do interlocutor, que retornava toda vez que ele falava.

Ela corrigiu o problema identificando quando um sinal de entrada era idêntico ao que estava saindo e apagando-o eletronicamente. A solução foi tão elegante que é usada até hoje. E, é claro, ela não era humana. Mas, sim, um sistema de Múltiplos Elementos Lineares Adaptados (Madaline, na sigla em inglês). Foi a estreia da inteligência artificial no ambiente de trabalho.

Atualmente, há um consenso de que os computadores inteligentes estão chegando para roubar nossos empregos. Além de concluírem toda carga de trabalho semanal antes mesmo de você preparar uma torrada, eles não precisam de intervalos para tomar café, de fundos de pensão ou mesmo dormir.

Embora muitos postos de trabalho possam ser automatizados no futuro, pelo menos no curto prazo, é mais provável que essa nova geração de supermáquinas trabalhe ao nosso lado.

Apesar dos feitos incríveis em diversas áreas, como a capacidade de antecipar e impedir fraudes e fazer o diagnóstico precoce de doenças, os sistemas de inteligência artificial mais avançados não contam, atualmente, com nada que se compare à inteligência geral de um ser humano.

De acordo com um levantamento da consultoria McKinsey, de 2017, apenas 5% dos empregos poderiam ser totalmente automatizados com base na tecnologia atual, mas 60% das profissões podem ter um terço de suas tarefas assumidas por robôs.

É importante lembrar que nem todos os robôs usam inteligência artificial - alguns sim, muitos não. O problema é que os mesmos pontos fracos que os impedem de dominar o mundo também fazem com que deixem a desejar como colegas de trabalho.

Da tendência ao racismo a uma total incapacidade de definir metas próprias, resolver problemas ou aplicar o bom senso, essa nova geração de funcionários robóticos não possui habilidades que até as pessoas mais ignorantes poderiam facilmente desenvolver.

Então aqui está o que você precisa saber para se relacionar bem com seus futuros colegas de trabalho: os robôs.

1ª regra: robôs não pensam como seres humanos

Enquanto Madaline revolucionava os telefonemas de longa distância, o filósofo húngaro-britânico Michael Polanyi refletia sobre a inteligência humana. Ele percebeu que nem todas as habilidades podem ser facilmente explicadas e divididas em regras --como o uso preciso da gramática, por exemplo.

Os seres humanos contam com o chamado conhecimento tácito, habilidades que adquirimos sem ter consciência de como é possível desempenhá-las. Nas palavras de Polanyi, "sabemos mais do que podemos dizer".

O princípio inclui tanto habilidades cotidianas - como andar de bicicleta --como tarefas mais sofisticadas. E, infelizmente, se não sabemos as regras, não podemos ensiná-las a um computador. Esse é o paradoxo de Polanyi.

Em vez de tentar fazer a engenharia reversa da inteligência humana, os cientistas de computação decidiram resolver essa questão desenvolvendo a inteligência artificial para pensar de uma maneira completamente diferente: orientada por dados.

"Você imaginaria que a inteligência artificial funciona a partir do modo como entendemos os seres humanos, que a desenvolvemos exatamente da mesma maneira", diz Rich Caruana, pesquisador sênior da Microsoft Research. "Mas não foi assim."

Ele dá o exemplo dos aviões, que foram inventados muito antes de se ter um conhecimento preciso sobre o voo das aves e que possuem, portanto, aerodinâmicas diferentes. Ainda assim, dispomos hoje de aeronaves que podem voar mais alto e mais rápido que qualquer pássaro.

Como Madaline, muitos sistemas de inteligência artificial funcionam a partir de "redes neurais", o que significa que usam modelos matemáticos para aprender processando grandes volumes de dados.

Por exemplo, o Facebook treinou seu software de reconhecimento facial, o DeepFace, por meio da análise de cerca de 4 milhões de fotos. Ao identificar padrões em imagens marcadas com a mesma pessoa, ele aprendeu a reconhecer os rostos corretamente 97% das vezes.

Aplicativos de inteligência artificial, como o DeepFace, são a menina dos olhos do Vale do Silício e já estão dando uma surra em seus criadores. Dirigem carros, reconhecem vozes, traduzem textos e, é claro, marcam fotos. No futuro, a expectativa é que a tecnologia seja introduzida em diversos campos, da saúde à área de finanças.

2ª regra: seus futuros colegas não são infalíveis --eles também erram

O comportamento orientado por dados também significa que eles podem cometer erros incríveis, como na ocasião em que uma rede neural confundiu uma tartaruga impressa em 3D com um rifle. Os programas não conseguem pensar conceitualmente, seguindo a lógica de que "se tem casco e escamas, então pode ser uma tartaruga".

Em vez disso, eles raciocinam em termos de padrões. No caso, padrões visuais em pixels. Consequentemente, alterar um único pixel de uma imagem pode ser a diferença entre uma resposta sensata e uma inacreditavelmente bizarra.

Isso também significa que eles não têm o menor bom senso, o que é primordial no ambiente de trabalho e requer utilizar o conhecimento existente e aplicá-lo a novas situações.

Um exemplo emblemático é a inteligência artificial capaz de jogar videogame criada pela empresa DeepMind. Em 2015, ela recebeu a missão de jogar o clássico de fliperama Pong. Como era de se esperar, foi uma questão de horas até o sistema derrotar os jogadores humanos e, inclusive, descobrir maneiras inéditas de ganhar.

Mas para dominar o Breakout, um jogo praticamente idêntico, a inteligência artificial teve que começar do zero - não houve transferência de aprendizagem.

3ª regra: robôs não conseguem explicar por que tomaram uma decisão

Outra questão inerente à inteligência artificial remete ao paradoxo moderno de Polanyi. Como não entendemos completamente como nossos cérebros aprendem algo, fizemos a inteligência artificial raciocinar como estatísticos.

A ironia é que agora também temos pouca noção do que acontece dentro de suas "mentes". É a chamada "caixa preta" da inteligência artificial. Embora você saiba que dados forneceu e visualize os resultados, não sabe como a máquina à sua frente chegou a essa conclusão.

"Agora nós temos dois tipos diferentes de inteligência que de fato não entendemos", diz Caruana.

As redes neurais não têm habilidades linguísticas, por isso não conseguem explicar o que estão fazendo ou por quê. E como toda inteligência artificial, são desprovidas de bom senso.

Há algumas décadas, Caruana aplicou uma rede neural a alguns dados médicos, como sintomas e seus efeitos. A intenção era calcular o risco de cada paciente morrer num determinado dia, para que os médicos pudessem tomar medidas preventivas.

Parecia funcionar bem, até a noite em que um estudante de graduação da Universidade de Pittsburgh notou algo estranho. Ele estava processando os dados com um algoritmo mais simples, que permitia ler a lógica de tomada de decisão linha por linha. E uma delas dizia "asma é bom para você, se você tem pneumonia".

"Perguntamos aos médicos e eles disseram: 'Isso está errado, vocês precisam consertar'", lembra Caruana.

A asma é um sério fator de risco para o desenvolvimento de pneumonia, uma vez que ambas as doenças afetam os pulmões. Eles nunca vão saber ao certo por que a máquina aprendeu essa regra. Uma teoria é que, quando pacientes com histórico de asma pegam pneumonia, eles buscam ajuda médica rapidamente. Isso poderia estar inflando suas taxas de sobrevivência.

Diante do crescente interesse em usar a inteligência artificial para promover o bem comum, muitos especialistas do setor estão ficando cada vez mais preocupados. Neste ano, entrarão em vigor novas regulamentações da União Europeia, que concedem aos indivíduos o direito a uma explicação sobre a lógica por trás das decisões da inteligência artificial.

Enquanto isso, nos EUA, a Agência de Pesquisa Avançada e Projetos da Defesa (Darpa) está investindo US$ 70 milhões em um novo programa de inteligência artificial explicável.

"Recentemente, houve uma melhoria significativa em quão precisos esses sistemas podem ser", afirma David Gunning, que está gerenciando o projeto na Darpa.

"Mas o preço que estamos pagando por isso é que esses sistemas são muito obscuros e complexos. Não sabemos por que está recomendando um determinado item ou se movimentando de determinada forma em um jogo."

4ª regra: robôs podem ser tendenciosos

Há ainda a preocupação de que alguns algoritmos possam reforçar acidentalmente certos preconceitos, como sexismo ou racismo. Recentemente, por exemplo, um programa de software que prevê a reincidência criminal revelou ser duas vezes mais rigoroso com os negros.

Tudo depende de como os algoritmos são treinados. Se os dados usados para alimentá-los são claros e evidentes, é muito provável que sua decisão seja correta. Mas muitas vezes há preconceitos humanos enraizados.

Podemos ver um exemplo no Google Tradutor. Como um pesquisador mostrou na revista Medium, no ano passado, se você traduz "Ele é enfermeiro. Ela é médica", para húngaro, e depois para inglês, o algoritmo te dá como resposta a frase oposta: "Ela é enfermeira. Ele é médico".

O algoritmo foi treinado a partir do conteúdo de cerca de um trilhão de páginas na web. Mas tudo o que ele pode fazer é encontrar padrões, como a referência de que médicos tendem a ser do sexo masculino e enfermeiros do sexo feminino.

O preconceito também pode aparecer na hora de ponderar. Assim como as pessoas, nossos futuros colegas de trabalho analisam os dados "botando na balança" --decidindo basicamente que parâmetros são mais ou menos importantes.

Um algoritmo pode decidir que o CEP de alguém é relevante para sua análise de crédito --algo que já está acontecendo nos EUA--, discriminando, assim, pessoas de minorias étnicas, que costumam viver em bairros mais pobres.

E não se trata apenas de racismo e sexismo. Podem surgir formas de preconceito que nunca sequer havíamos imaginado. Daniel Kahneman, ganhador do Prêmio Nobel de Economia, passou a vida estudando os preconceitos cognitivos irracionais. Ele explicou a questão em entrevista concedida em 2011 ao blog Freakonomics:

"Por sua própria natureza, os atalhos heurísticos produzirão preconceitos, e isso é verdade tanto para os seres humanos quanto para a inteligência artificial, mas as heurísticas da inteligência artificial não são necessariamente as humanas."

Os robôs estão chegando e vão mudar para sempre o mercado de trabalho. Mas até que eles sejam um pouco mais parecidos com os seres humanos, vão precisar de nós ao lado deles. E, incrivelmente, tudo indica que nossos colegas do Vale do Silício vão nos deixar "bem na fita".