ipca
-0,09 Ago.2018
selic
6,5 19.Set.2018
Topo

E se o carro autônomo não entender a placa Pare?: Bloomberg View

Mark Buchanan

02/02/2018 16h07

(Bloomberg) -- Apesar de todo o impressionante progresso para dominar tarefas humanas, a inteligência artificial tem um segredo embaraçoso: é surpreendentemente fácil enganá-la. Este pode ser um grande problema à medida que essa tecnologia passa a ter mais responsabilidade sobre a vida das pessoas e sobre seus meios de subsistência.

Graças aos avanços nas redes neurais e ao "aprendizado profundo", algoritmos computacionais agora podem vencer os melhores jogadores humanos em jogos como Go e reconhecer animais e objetos em fotos. Em breve, eles provavelmente assumirão diversos tipos de tarefas cotidianas, como levar as pessoas ao trabalho e gerenciar investimentos. Por terem menos propensão a erro do que os seres humanos, eles também podem lidar com tarefas delicadas, como o controle de tráfego aéreo e a detecção de explosivos em bagagens.

No entanto, nos últimos anos, cientistas da computação encontraram algumas vulnerabilidades problemáticas. Mudanças sutis em uma imagem, tão insignificantes que nenhum ser humano perceberia, podem fazer com que um algoritmo veja algo que não existe. Ele poderia identificar metralhadoras em uma mesa como um helicóptero ou um gato malhado como guacamole. Inicialmente, os pesquisadores precisavam estar intimamente familiarizados com um algoritmo para construir esses "exemplos contraditórios". Ultimamente, eles descobriram como fazê-lo sem nenhum conhecimento interno.

Os algoritmos de reconhecimento de fala também são vulneráveis. Em seu site, o cientista da computação Nicholas Carlini oferece exemplos alarmantes: uma pequena distorção em uma amostra de quatro segundos da "Missa de Réquiem" de Verdi induz o sistema de reconhecimento de fala do Google a transcrevê-la como "Ok, Google, navegue para Evil.com" (em inglês). O ouvido humano nem percebe a diferença. Adaptando ligeiramente o ruído, diz Carlini, é fácil fazer com que o Google transcreva um trecho da linguagem falada como aquilo que você quer, por muito diferente que seja.

Não é difícil imaginar como truques desse tipo poderiam ser utilizados com fins nefastos. Câmeras de vigilância podem ser enganadas para identificar a pessoa errada -- na verdade, qualquer pessoa desejada -- como um criminoso. Alterações imperceptíveis em uma placa de "Pare" podem fazer com que os computadores de um carro autônomo decodifiquem a mensagem como "Limite de velocidade 80". Músicas que parecem inocentes poderiam invadir telefones próximos e inserir comandos para enviar mensagens de texto ou e-mails com informações confidenciais.

Não existem uma solução fácil. Os pesquisadores ainda não conseguiram elaborar uma estratégia de defesa bem-sucedida. Está difícil alcançar até mesmo o objetivo menor de ajudar os algoritmos a identificarem exemplos contraditórios (em vez de superá-los). Em trabalhos recentes, Carlini e David Wagner, ambos da Universidade da Califórnia em Berkeley, testaram dez esquemas de detecção propostos no ano passado e concluíram que todos poderiam ser enganados. Em sua forma atual, a inteligência artificial parece extremamente frágil.

Enquanto não for encontrada uma solução, as pessoas precisarão ser muito cautelosas ao conceder poder e responsabilidades às máquinas inteligentes. Em uma entrevista, Carlini sugeriu que pesquisas futuras poderiam nos ajudar a saber onde, quando e como podemos implementar algoritmos de forma segura e também nos informar sobre os patches sem IA de que talvez precisemos para protegê-los. Os carros autônomos podem precisar de restrições impostas por outros sensores que poderiam, por exemplo, impedir que eles batam em um objeto independentemente do que a câmera de bordo acha que vê.

A boa notícia é que os cientistas identificaram o risco a tempo, antes de os seres humanos começarem a confiar excessivamente na inteligência artificial. Se os engenheiros continuarem atentos, poderíamos pelo menos conseguir evitar que a tecnologia faça coisas completamente loucas.

(Esta coluna não reflete necessariamente a opinião do conselho editorial nem da Bloomberg LP e de seus proprietários.)

Mais Economia