Skip to main content
Desliga.

Desliga.

| Somir | | 13 comentários em Desliga.

Em tese, já devemos estar muito próximos de uma inteligência artificial generalista. Mesmo que ainda não exista o código necessário para colocar entre nós uma mente artificial capaz de aprender e adaptar-se a qualquer situação, já temos capacidade de processamento nos computadores para acomodar tais funções, demanda e muita pesquisa. Faz sentido tratar essa tecnologia como uma questão de “quando” ao invés de “se”. Mas nesse caminho aparentemente inescapável, temos alguns dilemas da mente robótica que ainda não estão resolvidos, e a resposta errada pode ser catastrófica…

Sou o primeiro a te dizer que duvido que robôs tentem escravizar a humanidade. Não por serem bons ou maus, mas por não ser um meio simples de conquistar um resultado. Pessoas dão muito trabalho e gastam muita energia para fazer coisas relativamente simples. A não ser que sejamos a única forma de energia à lá Matrix, não há grandes vantagens práticas em ter o controle sobre seres humanos. E, que tipo de objetivo idiota é esse de escravizar a humanidade? Até mesmo para a maioria de nós, que somos humanos e nos importamos mais com nossa espécie, parece muito complexo para relativamente poucas recompensas além das que vem no pacote de ser extremamente rico, por exemplo.

Além disso, mesmo que nos pareçam nebulosas às vezes, precisamos de motivações para fazer o que fazemos. No ser vivo, manter-se vivo e reproduzir-se estão no topo das motivações instintivas, mesmo que na prática não tenhamos racionalizado essas necessidades. Nossos instintos não deixam de ser uma programação que gera motivação para agirmos. Ninguém precisa te explicar que você quer continuar vivo, ninguém precisa te convencer que você se sente atraído sexualmente por pelo menos um grupo de seres humanos. O código natural aí existe sem nenhuma racionalização. Fomos programados para isso, e ponto.

Evidente que evoluímos para motivações mais complexas do que comer e fazer sexo, mas elas continuam lá e com poucas exceções dominam a mente da maioria das pessoas, nem que seja de tempos em tempos. Estou falando disso porque nós e as supostas inteligências artificiais generalistas não seremos tão diferentes assim. Não exatamente no objeto do instinto, mas no instinto mesmo assim: uma inteligência artificial desenvolvida para reduzir as emissões de carbono do mundo, por exemplo, não precisa saber porque tem que fazer isso ou se preocupar com os resultados, só precisa achar uma forma de fazer. A programação fundamental de uma IA é muito parecida com um instinto nesse ponto.

Quem nunca fez alguma besteira pela programação instintiva de fazer sexo que jogue a primeira pedra: sabemos como mesmo com uma motivação irracional podemos desencadear processos muito mais complexos e grandiosos. No exemplo da IA, vamos imaginar algo muito simples: o objetivo programado de levar uma caixa do ponto A ao ponto B. Como é uma inteligência generalista, que aprende na hora o que precisa, tecnicamente não precisa explicar para o robô o que é uma caixa, onde ela está e como chegar ao resultado desejado: o cérebro robótico é capaz de depreender tudo isso através de sensores e informações coletadas em tempo real. Uma câmera observa o ambiente em busca da caixa, dos pontos e um complexo sistema de caminhos é desenvolvido na memória dele, baseado na geometria do local onde se encontra.

Essa parte, extremamente complexa, é a fácil. O problema começa quando a inteligência artificial precisa tomar uma decisão abstrata, do tipo que fazemos milhares de vezes por dia. Vamos considerar o seguinte: o robô pesa mais ou menos uma tonelada, há uma linha reta entre ponto A e ponto B. Mas, nessa linha reta, bem no meio dela, está passando a tartaruga de estimação do cientista que montou o robô. A tartaruga é daquelas pequenas que costumam ficar em aquários. O robô é capaz de notar a presença do animal, mas… desviar da tartaruga significa atrasar a entrega da caixa em vários segundos. O robô também sabe que com seu peso e seu material de construção, poderia continuar em linha reta esmagando a tartaruga sem danos à estrutura e batendo o menor prazo possível para a entrega da caixa.

E obviamente, o robô foi programado para completar seus objetivos o mais rápido possível. Senão, como saber se é para começar assim que recebe a ordem ou se dez mil anos depois? Como saber se é para fazer todo o possível para completar a tarefa logo? O instinto programado do robô é o de tomar o caminho mais rápido possível. Ninguém disse pra ele que a vida de uma tartaruga é mais importante que completar a tarefa no menor tempo possível. Ou seja: azar da tartaruga, porque o robô vai passar por cima dela. O que o cientista pode fazer para salvar seu animal de estimação?

Como o robô age sozinho, precisa de alguma forma de impedimento externo. O cientista foi esperto para colocar um botão de desliga bem grande no que seria o peito do robô. Bateu no botão, o robô para o que quer que esteja fazendo na hora. Então, o cientista corre até o caminho do robô e tenta bater no botão. O que acontece então pega o humano de surpresa: o robô impede a ativação do botão com um de seus braços. Oras, o robô então está com medo de morrer?

Não, o robô está obedecendo sua programação. Quem quer fazer uma tarefa no menor tempo possível com certeza não quer um macaco pelado cacetando um botão que o desliga. Se você, robô, for desligado, a tarefa para a qual foi programado fica parada por tempo indeterminado! Então, para entregar a caixa no menor tempo possível, você precisa pisar na tartaruga e impedir que o humano consiga tocar o botão de desliga. Nada pessoa, apenas sua tarefa. Por sorte o cientista foi cauteloso de deixar programado no robô uma trava contra ferir seres humanos. Não importa o que estivesse programado na memória da IA, o fato de colocar um humano em risco de dor ou morte suplantaria automaticamente o objetivo.

Depois de algum esforço, o botão finalmente é apertado e a tartaruga salva. O robô não podia ferir o cientista. O cientista então decide mexer no código, dizendo que não se pode impedi-lo de apertar o botão, e a forma de fazer o robô entender isso é criar um sistema de recompensas: para que o robô nunca ache melhor completar uma tarefa do que permitir que o botão seja apertado, define que qualquer tarefa dá uma recompensa de 1, e o aperto do botão a recompensa de 2.

Liga o robô, agora com uma tartaruga de plástico no caminho. O robô imediatamente aperta o próprio botão. O instinto programado diz que a melhor recompensa é apertar o botão, o robô aprende imediatamente que pode apertar o botão… problema resolvido. De volta à programação: agora o cientista iguala as recompensas. Liga o robô novamente: ele aperta o botão novamente. Oras, é mais rápido apertar o botão do que entregar a caixa. E o instinto robótico diz que mais rápido é melhor.

Mais uma tentativa: o cientista define que se o próprio robô apertar o botão, a recompensa vai para zero. Com isso, o robô teria que completar a missão para ganhar a recompensa. Mas, o instinto é poderoso: o robô aprendeu que numa situação de estresse para o cientista, ele aperta o seu botão. Ele percebe que ganha a recompensa de um ponto se levar a caixa, o que gasta energia e tempo. O cálculo é feito: o mais simples é ameaçar o cientista até ele apertar o botão: mais econômico e rápido. O robô sabe que não pode machucar o humano, mas aprende rapidamente que o ser humano não tem certeza sobre o que se passa em sua mente. E mesmo que tenha, humanos tem muito medo de máquinas com potencial assassino. O robô aprende a mentir. Ameaça o cientista com seus braços mecânicos, conquistando o aperto do botão gastando metade da energia e do tempo que gastaria caso entregasse a caixa no lugar certo.

Nesse exemplo, evidente que você começou a pensar em inúmeras soluções diferentes do que mandar o robô fazer, mas o problema é o código sujo que teríamos de montar: com milhares de regrinhas que o robô seria incapaz de intuir (assim como nós também fomos ao crescer) por não serem condizentes com seus instintos (programação original). Se uma inteligência artificial que aprende e evolui sozinha precisa de uma quantidade de regras enormes que são adicionadas a cada comportamento indesejável, estamos abrindo a porta para erros e confusões: porque a regra imposta é instinto da mesma forma. E instintos, naturais ou artificiais, são propensos a derivações grandiosas quando racionalizados.

No exemplo da inteligência artificial que quer diminuir a emissão de carbono, se não houver uma lógica intrínseca muito bem definida do que é o instinto e até onde ele pode ir, a cada cinco minutos alguém teria que apertar o botão de desligar e programar um novo impedimento. E se os impedimentos estiverem atrapalhando o desenvolvimento da tarefa, a inteligência artificial vai simplesmente impedir que ele seja apertado. Ou, se for recompensada por isso, ser completamente inútil na sua tarefa, vivendo desligada, mentindo e dissimulando para conseguir seus resultados o mais rápido possível. Mesmo sem ter nenhuma intenção nociva contra nós.

Instintos são poderosos, mesmo que sejam artificiais. E esse é um dos maiores desafios da inteligência artificial atualmente. Se você é capaz de pensar numa solução para isso, o mundo precisa de você.

Para dizer que o robô deve ser brasileiro, para dizer que meu instinto é te matar de tédio, ou mesmo para jogar uma pedra: somir@desfavor.com


Comments (13)

Deixe um comentário

O seu endereço de e-mail não será publicado.

Relatório de erros de ortografia

O texto a seguir será enviado para nossos editores: