Inteligência Artificial pensando por si mesma?

Inteligência Artificial pensando por si mesma?

O mundo da Inteligência Artificial (IA) não tem muita gente. Alguns milhares de profissionais ao redor do mundo, que leem artigos nos mesmos lugares, frequentam os mesmos eventos e , cada vez mais, trabalham nas mesmas poucas empresas.

Para essa gente discreta, um dos assuntos favoritos do café é quando, e se, o que chamamos de IAG (Inteligência Artificial Geral), será finalmente criada. As apostas vão de ´estamos quase lá´ a ´nunca´, o que é, como você leitor notou, uma margem de tempo bastante flexível.

IAG, a propósito, define o momento em que um sistema de IA adquirirá consciência e passará a tomar suas próprias decisões de aprendizado e desenvolvimento. Também se acredita que, uma vez ultrapassado esse patamar, essa ´inteligência´ superará rapidamente a nossa, ameaçando o mundo como o conhecemos. Eu sei, eu sei, soa como filme de Hollywood, mas um monte de gente boa acredita que isso vai acontecer, e livros como Sapiens e principalmente The Age of Spiritual Machines, de Ray Kurzweil, guarde esse nome, tratam do tema extensivamente, ainda que nunca deixe de parecer ficção científica.

Pois os papos no café ganharam um impulso poderoso algumas semanas atrás quando um engenheiro do Google chamado Blake Lemoine apareceu num artigo do Washington Post (Wapo) afirmando que LaMDA, um experimento da empresa onde trabalha que se pretende um criador de chatbots super eficiente, havia ganhado vida.

A maioria dos especialistas afirmou que o que Blake dizia não fazia sentido. Eu disse exatamente a mesma coisa quando ouvi a notícia de segunda ou terceira mão. Afinal, Large Language Models (LLM´s, vou explicar mais prá frente o que são), não pensam, algum jornalista estava simplificando algo complexo, e o tal Blake devia estar tentando se promover.

Dois dias depois o assunto continuava esquentando no nosso canto nerd do mundo, e eu acabei lendo excelentes artigos, como este, de Gary Marcus, reafirmando o que eu já dava como certo, o artigo do Wapo era exagerado, quase histérico (Nonsense de Salto Alto, segundo Marcus). LLM´s não pensam, e o mundo está cheio de gente querendo aparecer com notícias bombásticas.

Mas como eu precisava de algum argumento pra jogar na roda, resolvi ler o artigo original do jornal americano, que não mudou em nada minha opinião, apenas me deu vontade de passar os olhos pela transcrição completa da conversa entre o engenheiro e o sistema LaMDA, publicado no Medium. Porque eu sei todos os truques que um modelo de processamento de linguagem guarda na manga, em dois minutos eu identificaria meia dúzia deles e o assunto estaria resolvido na minha cabeça. Então eu li, e gostaria de ter uma alegoria melhor do que ´quase caí pra trás´.

Porque eu não quase caí de fato, estava bem sentado. Mas depois eu reli, e reli ainda outra vez, e acabei indo buscar madrugada adentro dezenas de artigos mais ou menos técnicos, entrevistas de Blake Lemoine, especificações de sistemas que ele menciona como parte do LaMDA e quem são os cientistas e técnicas envolvidos no que o Google chama de ´experimento´.

E resolvi escrever não apenas um artigo, mas uma série deles, explicando o que essa conversa entre um engenheiro e um sistema significa para nossa estrutura social, com ramificações que irão de política a relacionamentos, do mercado de trabalho ao entretenimento. Enfim, a quase tudo o que nos cerca.

Mas o que me fez soar tão bipolar? Na terça-feira eu dei de ombros porque, como toda semana, alguém estava exagerando o estágio de desenvolvimento e o potencial real da IA. E na sexta eu já acreditava que estamos batendo as portas de uma revolução que vai transformar a maneira como vemos e interagimos com o mundo.

São três razões principais (e espero que você volte para o próximo artigo):

  1. Modelos de linguagem natural não deveriam ser capazes de guardar contextos temporais e pessoais
  2. Não deveriam ser capazes de ler e interpretar textos complexos, muito menos debater diferentes perspectivas a respeito do que leram
  3. Modelos de linguagem natural não deveriam discutir ´seus sentimentos´, as aspas são propositais, de maneira consistente e homogênea, nem expressar uma visão de mundo clara e coerente, apoiada e reforçada pelos dois itens acima

Continuo em um próximo post.

Alex WinetzkiCEO da Woopi e diretor de P&D do Grupo Stefanini.