O que é a IA LaMDA do Google e por que um engenheiro do Google acredita que ela é senciente?

Um engenheiro sênior do Google afirmou que a IA LaMDA da empresa tornou-se senciente. Quer você ache isso alarmante ou excitante, é uma afirmação poderosa e ousada, e talvez difícil de provar, mesmo que seja completamente verdadeira.

O que é LaMDA?

LaMDA é a abreviatura de Modelo de Linguagem para Aplicação de Diálogo. Em outras palavras, é um modelo de linguagem de aprendizado de máquina projetado especificamente para gerar um diálogo natural. Os métodos de aprendizado de máquina permitem que os computadores descubram padrões e relacionamentos nos dados. Assim, por exemplo, você pode “treinar” um algoritmo de aprendizado de máquina como o GPT-3 (outro sistema de ponta) em todas as obras de Shakespeare e depois fazer com que ele gere novos textos originais que se pareçam com Shakespeare.

Como explica Sundar Pichai (CEO do Google) em entrevista ao Yahoo Finance , o LaMDA é um sistema diferente porque foi treinado especificamente no diálogo. A intenção é dar aos sistemas do Google a capacidade de iniciar um diálogo aberto e humano com os usuários.

Em outras palavras, as pessoas que solicitam coisas específicas aos produtos do Google não precisam mudar a forma como pensam ou falam. Eles podem interagir com o sistema de computador da mesma forma que interagiriam com outra pessoa.

Nos bastidores, todos os modelos atuais de aprendizado de máquina são, na verdade, modelos matemáticos e estatísticos sofisticados. Eles geram algoritmos com base nos padrões subjacentes que descobrem nos dados. Alimente-os com dados suficientes de alta qualidade e esses algoritmos se tornarão surpreendentemente eficazes em fazer coisas que apenas os humanos ou outras inteligências naturais foram capazes de fazer até agora.

Por que um engenheiro do Google acredita que o LaMDA é senciente?

Um robô escrevendo equações matemáticas em um quadro-negro.

O engenheiro em questão é Blake Lemoine, que publicou uma entrevista  entre ele e o LaMDA como parte de sua argumentação sobre por que o LaMDA pode ser senciente. Lemoine passou meses conversando com o software, interrogando-o, fazendo perguntas complexas e achando difícil acreditar que suas respostas complexas e apropriadas pudessem ser produto de qualquer coisa que não fosse um ser senciente.

Recomendado:  Como obter o widget HTC Sense Weather & Clock no Android

É melhor que todos que desejam entender por que Lemoine se sente assim leiam as respostas do LaMDA para entender por que esta é uma posição tão convincente a ser tomada. As respostas de LaMDA são tão humanas que lembram as IAs assistentes pessoais fictícias de Her, de Spike Jonze , uma história em que um humano desenvolve um relacionamento sério com uma IA conversacional.

Deixando de lado se as afirmações de Lemoine sobre o LaMDA têm algum peso, vale a pena notar que todo o propósito do design do LaMDA é gerar um diálogo aberto, natural e crível. Portanto, nesse sentido, a sua convicção indica que a Google obteve um sucesso espectacular na geração de um diálogo credível. Se algum sistema de IA convencer um ser humano de que ele é senciente, é mais provável que seja um sistema projetado especificamente para fazer exatamente isso.

O problema é que as afirmações de senciência não são realmente testáveis ​​(ou pelo menos não são viáveis ​​ou eticamente testáveis) por uma série de razões científicas e filosóficas. Para entender por quê, temos que examinar brevemente o que significa “senciência”.

O que é senciência?

A palavra “senciência” significa essencialmente que algo (um gato, um humano ou um tapete mágico) tem a capacidade de sentir. compartilha a mesma raiz de “sentimental” ou “sentimento”. Senciência não significa apenas que algo tem a capacidade de sentir. É quase certo que seu termostato não é senciente, apesar de sua capacidade de informar a temperatura. Em vez disso, a senciência trata da experiência subjetiva de sentimentos, o que implica que existe um “sujeito” em primeiro lugar.

É perigoso ficar preso à semântica aqui porque é provável que Lemoine esteja usando a palavra “senciência” de forma intercambiável com conceitos distintos como “sapiência”, “inteligência” e “consciência”. Então, para fins de argumentação, a interpretação mais caridosa aqui é que Lemoine pensa que Lamda é um ser autoconsciente, capaz de sentir coisas, manter crenças e, de outra forma, experimentar as coisas de uma forma que normalmente atribuímos às criaturas vivas.

Recomendado:  Como adicionar legendas a imagens no Google Docs

Num artigo adicional , Lemoine discute o que pensa que o LaMDA “quer” e “acredita”, o que apoia a ideia de que “senciência” na sua opinião significa mais do que a sua definição estrita no dicionário.

Não entendemos a senciência e a consciência em primeiro lugar

O problema é o seguinte: sabemos relativamente pouco sobre senciência, consciência, inteligência e o que significa ser uma entidade que possui esses atributos. Ironicamente, a tecnologia de aprendizado de máquina pode eventualmente nos ajudar a desvendar alguns dos mistérios sobre nossas mentes e os cérebros em que elas existem.

Por enquanto, filósofos e cientistas estão destruindo a “caixa preta” da consciência , mas ela ainda parece ser o resultado de algo mais do que a soma de suas partes. A consciência parece ser uma coisa “emergente”. É um “fantasma” gerado a partir da interação de muitos subsistemas neurais diferentes, nenhum dos quais parece ser senciente por si só.

Da mesma forma, IA sofisticada, como o sistema de geração de imagens DALL-E 2 , consiste em modelos mais simples de aprendizado de máquina que se complementam para criar o produto final. O tema da complexidade decorrente da interação de sistemas mais simples é algo que você encontrará frequentemente no mundo da IA ​​e, embora possamos ter uma compreensão muito boa de como cada subcomponente funciona, os resultados finais são geralmente bastante imprevisíveis.

Será que reconheceríamos a senciência na IA?

Se, para fins de argumentação, uma IA fosse realmente senciente no verdadeiro sentido da palavra, seríamos capazes de dizer? O LaMDA foi projetado para imitar e prever os padrões do diálogo humano, de modo que o baralho está realmente complicado quando se trata de desencadear as coisas que os humanos associam à inteligência semelhante à humana. No entanto, levamos muito tempo para considerar primatas não humanos e animais como golfinhos, polvos e elefantes como sencientes – embora no grande esquema das coisas eles sejam virtualmente nossos irmãos.

Recomendado:  Por que pressionamos Shift+Command+3 para fazer uma captura de tela no Mac?

Uma IA senciente pode ser tão estranha que não saberíamos que estamos olhando para uma bem à nossa frente. Isto é especialmente provável porque não sabemos quais são as condições iniciais para o surgimento da senciência. Não é difícil imaginar que a combinação certa de dados e subsistemas de IA misturados da maneira certa possa subitamente dar origem a algo que seria qualificado como senciente, mas pode passar despercebido porque não se parece com nada que possamos entender.

Se parece um pato…

Um pato mecânico.

O último grande problema com as alegações de senciência nas máquinas é o mesmo problema com as reivindicações de senciência em qualquer outra coisa, incluindo os seres humanos. Filosoficamente, você não sabe se alguma das pessoas com quem você interage é realmente senciente ou não. É o clássico problema filosófico do zumbi , que é um experimento mental sobre seres hipotéticos que são completamente indistinguíveis de um ser humano, exceto pelo fato de não possuírem senciência ou qualquer tipo de experiência consciente.

No entanto, como postulou o famoso teste de Alan Turing, não importa se uma IA está “realmente” pensando e sentindo. O que importa é que ele pode imitar tão bem a aparência do pensamento e do sentimento que não conseguimos perceber a diferença. Dependendo de para quem você perguntar, o LaMDA já passou no Teste de Turing , o que pode tornar as afirmações não testáveis ​​de Lemoine um ponto discutível.