IPCA
0,83 Abr.2024
Topo

Chefe de IA do Facebook pesquisa nova classe de semicondutores

Jeremy Kahn

19/02/2019 11h20

(Bloomberg) — O pesquisador-chefe de IA do Facebook sugeriu que a empresa está trabalhando em uma nova classe de semicondutores que funcionaria de forma muito diferente à da maioria dos modelos existentes.

Yann LeCun disse que os futuros chips usados para o treinamento de algoritmos de aprendizagem profunda, responsáveis pela maior parte do progresso recente da inteligência artificial, precisariam conseguir manipular dados sem precisar dividi-los em vários lotes.

Para lidar com a quantidade de dados que esses sistemas de aprendizado de máquina precisam para aprender, a maioria dos chips de computador existentes os divide e processa cada lote em sequência.

"Queremos fazer todo o possível, especialmente porque mais ninguém está fazendo isso", disse em entrevista, na segunda-feira, antes da divulgação de um trabalho de pesquisa que ele elaborou sobre a história e o futuro do hardware de computador projetado para lidar com inteligência artificial.

A Intel e o Facebook anunciaram anteriormente que estão trabalhando em conjunto em uma nova classe de chips projetada especificamente para aplicações em inteligência artificial. Em janeiro, a Intel afirmou que planejava ter o novo chip pronto no segundo semestre deste ano.

O Facebook participa de uma corrida cada vez mais acirrada para criar semicondutores mais adequados às formas mais promissoras de aprendizado de máquina. O Google, da Alphabet, criou um chip chamado Tensor Processing Unit que ajuda a alimentar aplicações de IA em seus centros de dados de computação em nuvem. Em 2016, a Intel comprou a startup Nervana Systems, com sede em San Diego, nos EUA, que estava trabalhando em um chip específico para IA.

Em abril, a Bloomberg noticiou que o Facebook ia contratar uma equipe de hardware para produzir seus próprios chips para uma série de aplicações, incluindo inteligência artificial, além de gerenciamento das complexas cargas de trabalho dos enormes centros de dados da empresa.

No momento, os chips mais utilizados para o treinamento de redes neurais — um tipo de software vagamente baseado no funcionamento do cérebro humano — são unidades de processamento gráfico (GPU, na sigla em inglês) de empresas como Nvidia, originalmente projetadas para lidar com a carga de trabalho intensa, do ponto de vista computacional, de renderizar imagens para videogames.

LeCun disse que, por enquanto, as GPUs continuariam sendo importantes para a pesquisa de aprendizado profundo, mas que os chips eram inadequados para rodar algoritmos de IA uma vez treinados, fosse em centros de dados, fosse em dispositivos como telefones celulares ou assistentes digitais domésticos.

LeCun disse que os futuros designs dos chips de IA teriam que lidar com as informações de forma mais eficiente. Ao aprender, a maioria dos neurônios de um sistema — como um cérebro humano — não precisa ser ativada. Mas os chips atuais processam informações de todos os neurônios da rede a cada etapa de um cálculo, mesmo que eles não sejam usados. Isso torna o processo menos eficiente.

Várias startups tentaram criar chips para lidar de forma mais eficiente com informações esparsas. O ex-administrador da Nasa Daniel Goldin fundou uma empresa chamada KnuEdge que estava trabalhando em um chip do tipo, mas a empresa teve dificuldades para ganhar força e, em maio, anunciou a demissão da maior parte de sua força de trabalho.

LeCun, que também é professor de ciência da computação na Universidade de Nova York, é considerado um dos pioneiros de uma classe de técnicas de aprendizado de máquina conhecida como aprendizado profundo. O método depende do uso de grandes redes neurais.

Ele é especialmente conhecido por aplicar essas técnicas de aprendizado profundo a tarefas de visão computacional, como identificar letras e números ou marcar pessoas e objetos em imagens.