sábado, 4 de junho de 2016

Google está criando um botão de desligar para não criar a Skynet acidentalmente

Por: Darren Orf

google novo logo


Existem dois lados no debate sobre o futuro da inteligência artificial. De um lado temos empresas como Google, Amazon, Facebook e Microsoft, que investem agressivamente na tecnologia e esperam conseguir criar sistemas de AI cada vez mais inteligentes. Do outro lado, nomes como Elon Musk e Stephen Hawking acham que a inteligência artificial representa uma grande ameaça à humanidade.

Agora uma das mais avançadas inteligências artificiais do mundo, a DeepMind do Google, vai adotar medidas de segurança caso operadores humanos precisem “assumir o controle de um robô que se comporta mal e que pode levar a consequências irreversíveis”, o que acredito que inclua, mas não se limite, a exterminar a humanidade. No entanto, o artigo não chega a ser tão apocalíptico e usa exemplos simples, como robôs trabalhando em uma fábrica.

Um documento chamado “Safety Interruptible Agents” (agentes interruptores de segurança, em tradução livre), foi feito em uma parceria entre Google e o Instituto do Futuro da Humanidade da Universidade de Oxford que, como sugere o nome, quer que a humanidade tenha um futuro. O diretor Nick Bostrom fala sobre os possíveis perigos do desenvolvimento de inteligências artificiais há algumas décadas, e escreveu livros discutindo consequências de robôs super-inteligentes.

O artigo investiga como fazer para desligar a inteligência artificial se ela começar a fazer alguma coisa que operadores humanos não querem que faça. Ele está cheio de detalhes matemáticos que 99% da humanidade jamais vai entender, que basicamente descrevem métodos de construção do que os autores chamam de “grande botão vermelho” de uma AI.

Os pesquisadores devem ter visto os mesmos filmes que a gente. Aqueles em que os robôs aprendem a ignorar comandos para desligar. E eles se prepararam para isso:
Este artigo explora uma forma de garantir que um agente de aprendizagem não vai aprender a prevenir ser interrompido pelo ambiente ou por um humano operador.
Parece uma limitação desnecessária considerando que as mais impressionantes conquistas de AI já vistas pela humanidade envolvem jogos de tabuleiro. Mas Bostrom já teorizou antes que só precisamos construir uma inteligência artificial de nível humano para os cérebros robóticos irem além do que imaginamos:
Assim que a inteligência artificial atinge o nível humano, haverá um retorno positivo que vai impulsionar o desenvolvimento. AIs vão ajudar a construir novas AIs, que por sua vez vão ajudar a fazer AIs melhores, e assim em diante.
É melhor prevenir do que remediar.
[Intelligence.org via Business Insider]

Gizmodo

Nenhum comentário:

Postar um comentário