Em formação

Devemos temer a superinteligência artificial?

Devemos temer a superinteligência artificial?

Falando em uma conferência em Lisboa, Portugal, pouco antes de sua morte, Stephen Hawking disse aos participantes que o desenvolvimento da inteligência artificial pode se tornar o “pior evento na história da nossa civilização”, e ele tinha todos os motivos para se preocupar. Conhecida como uma superinteligência artificial (ASI) por pesquisadores de IA, eticistas e outros, ela tem o potencial de se tornar mais poderosa do que qualquer coisa que este planeta já viu e representa o que provavelmente será o desafio existencial final que a humanidade enfrentará como espécie .

Por que as pessoas têm medo de inteligência artificial?

Para entender melhor o que preocupava Stephen Hawking, Elon Musk e muitos outros, precisamos desconstruir muitas das representações culturais populares da IA.

A realidade é que a IA está conosco há algum tempo, desde que os computadores foram capazes de tomar decisões com base em dados e condições. Quando vemos um sistema de IA ameaçador nos filmes, é a malevolência do sistema, juntamente com o poder de um computador, que nos assusta.

No entanto, ele ainda se comporta de maneiras fundamentalmente humanas.

VEJA TAMBÉM: 10 ESSENCIAIS TED TALKS SOBRE INTELIGÊNCIA ARTIFICIAL

O tipo de IA que temos hoje pode ser descrito como Inteligência Funcional Artificial (AFI). Esses sistemas são programados para desempenhar uma função específica e fazê-lo tão bem ou melhor do que um humano. Eles também tiveram mais sucesso nisso em um período de tempo menor do que quase qualquer um previu, vencendo oponentes humanos em jogos complexos como Go e Starcraft II, que pessoas conhecedoras pensavam que não aconteceriam por anos, senão décadas.

Embora possamos nos envolver em humor negro sobre a nossa necessidade de dar as boas-vindas aos nossos senhores robôs, não há risco real de que esses sistemas representem os tipos de risco de que Hawking estava falando. AlphaGo pode derrotar cada jogador humano de Go com folga a partir de agora até a morte térmica do Universo, mas pergunte a ele pelas condições climáticas atuais e ele não tem a inteligência de organismos unicelulares que respondem às mudanças de temperatura.

O que pensamos quando falamos sobre uma IA perigosa é o que os cientistas da computação chamam de Inteligência Geral Artificial (AGI), um sistema artificial que emula completamente a mente humana e é tão inteligente quanto um ser humano em qualquer área do conhecimento, exceto que pode pense bilhões de vezes mais rápido do que podemos. Isso é o que os filmes tendem a retratar como Skynets incrivelmente perigosas, decididas a exterminar a humanidade, mas por mais aterrorizante que possa parecer, essa não é a verdadeira preocupação.

Por mais ameaçador que este sistema possa parecer, provavelmente nunca veremos um AGI vir à existência. A verdadeira preocupação é o que está um passo além do AGI.

Construindo além da inteligência de nível humano

O problema com o desenvolvimento de AGI no sentido tradicional é que é impossível programar uma árvore de decisão para cada questão que um AGI teria que resolver. Sempre haverá algo que ele é chamado a fazer e para o qual simplesmente não está programado, como perguntar sobre o tempo à AlphaGo.

Os humanos enfrentam esse desafio o tempo todo e é nossa capacidade de aprender e formar novas conexões em nossos cérebros que nos torna capazes de inteligência sofisticada e resolução de problemas. Se não sabemos como resolver um problema, podemos analisá-lo e encontrar uma resposta. É essa habilidade que estamos apenas começando a desenvolver nos sistemas de IA mais avançados que temos e é realmente algo da idade da pedra no grande esquema das coisas.

Para realmente alcançar o AGI, um sistema precisa de uma ferramenta-chave que os humanos consideram natural, em grande parte porque é automática. Ele precisa ser capaz de reescrever sua programação para se tornar mais inteligente, da mesma forma que a biologia humana reconecta automaticamente o cérebro para aprender coisas novas. É aqui que as implicações e preocupações sobre a inteligência artificial, as preocupações genuínas e científicas, em vez da versão de Hollywood, começam a tomar forma.

Suponha que programamos um sistema que possa reescrever sua própria programação para se tornar mais inteligente em qualquer assunto, habilidade ou habilidade que os humanos sejam capazes. No início, não seria nada inteligente, mas cada refinamento sucessivo, por sua vez, melhoraria sua capacidade de se aperfeiçoar. Cada pequeno passo incremental será construído sobre o último, crescendo exponencialmente.

Chegará um ponto neste processo em que o sistema deixará de ser um AFI. Como uma sublimação sólida em seu estado gasoso, este AFI pareceria passar AGI inteiramente conforme seu crescimento em inteligência se torna explosivo, um momento que a renomada autoridade em IA, Nick Bostrom, chama de ASI Lift-off. Está literalmente além de nossa capacidade imaginar como é realmente esse tipo de inteligência.

Não podemos simplesmente desconectar uma superinteligência artificial?

Esta é geralmente a resposta mais comum do público quando pensa em uma IA em fuga ao estilo da Skynet. Basta desconectá-lo ou algo igualmente mundano, como se uma superinteligência artificial fosse um modem que precisasse ser reiniciado. Já sabemos que isso não funcionará, da mesma forma que você não pode excluir um vírus de computador ou impedir sua disseminação desligando um computador infectado. Assim que a infecção aparecer, é tarde demais.

Se um vírus pudesse se inserir em um sistema para resistir a ser excluído ou se copiar e infectar outros sistemas antes mesmo de sabermos o que está acontecendo, uma superinteligência artificial seria infinitamente mais difícil de remover. Pior ainda, com algo tão inteligente, poderia descobrir maneiras de se preservar que pensaríamos completamente impossíveis porque nos falta inteligência para saber como realizá-lo, como tentar conceber a física de um avião tendo a capacidade cerebral de um babuíno. .

Poderíamos parecer que desligamos uma superinteligência artificial apenas para vê-la reaparecer do outro lado do mundo como se fosse um passe de mágica e nunca saberíamos como ela foi capaz de chegar lá.

Então, por que fazer isso?

Esta é a pergunta que naturalmente fazemos, mas o problema é que não há uma maneira real de desenvolver um sistema que seja mesmo uma porcentagem significativa de AGI que não necessite dar o controle do crescimento e desenvolvimento do sistema à própria IA, da maneira como o desenvolvimento de nossa própria inteligência é uma função automática de nosso cérebro formar novas conexões neurais por conta própria.

Se quisermos ir além dos AFIs rudimentares que temos atualmente, temos que assumir que uma superinteligência artificial é tão inevitável quanto as armas nucleares eram inevitáveis ​​após a divisão do átomo para usar a fissão nuclear como fonte de energia. Em última análise, a única maneira de impedir o surgimento de uma superinteligência artificial é interromper qualquer desenvolvimento posterior da inteligência artificial, o que não parece provável ou mesmo possível neste ponto.

Assim como uma superinteligência artificial tem potencial infinito para causar danos, ela pode ser benéfica com a mesma facilidade, pelo menos para seus criadores. Se você tem duas nações adversárias, como uma nação poderia confiar na outra com um sistema tão poderoso? Assim como o lançamento do Sputnik pela URSS sacudiu o nascente programa espacial dos Estados Unidos, o desenvolvimento da IA ​​já está suficientemente avançado para que ninguém queira ficar em segundo lugar na corrida de IA. A desvantagem de ficar para trás é simplesmente grande demais.

Se os incentivos forem maiores no desenvolvimento de IAs mais sofisticados do que o próximo, então uma corrida armamentista de IA é inevitável e, como já vimos, não há caminho para AGI que não produza um ASI quase imediatamente depois. Então, se seu surgimento é quase garantido quanto mais pesquisamos e desenvolvemos inteligência artificial, então você tem ainda mais incentivo para ser aquele que o desenvolve primeiro. Dessa forma, você tem a melhor chance de que a superinteligência seja benevolente com você, ou pelo menos não hostil.

Bem-vindo ao dilema da inteligência artificial do prisioneiro.

Devemos temer a superinteligência artificial?

Claro.

Como acontece com todo desenvolvimento tecnológico, sempre há consequências não intencionais e, uma vez que temos uma superinteligência artificial, não há como voltar atrás.

Mas, devemos lembrar que é da nossa natureza ver a ameaça que tal sistema representa, porque somos programados pela evolução para detectar o perigo e evitá-lo. Algo tão poderoso poderia realmente decidir, e provavelmente teria o poder, de exterminar toda a vida humana se seu objetivo fosse preservar a vida total do planeta. Afinal, a maior ameaça à vida na Terra é a civilização humana.

Mas, se tiver tal poder, teria o mesmo poder para prevenir ou até mesmo reverter a Mudança Climática, e é aí que reside a escolha que a humanidade deve fazer.

Assim como as desvantagens potenciais de um ASI são infinitas, é igualmente impossível colocar um limite no bem que algo como esse pode realizar. Independentemente do que pensamos, um ASI tem potencial para fazer mais. Mudanças climáticas, a erradicação de doenças, o fim da carência e da fome, o fim da própria morte e ainda mais rápido do que a viagem da luz para galáxias distantes são tão concebíveis - e talvez até mais prováveis ​​- um resultado de um ASI do que o imortal , monstro ditatorial malévolo contra o qual Elon Musk alerta.

Temos todos os motivos para acreditar que, no final, um ASI funcionará em nosso benefício. Todo avanço tecnológico tem um custo, mas a civilização humana avançou por causa disso. No final das contas, os seres humanos têm um histórico sólido quando se trata de tecnologia. Sim, podemos produzir armas de incrível capacidade de destruição, mas também podemos erradicar a varíola e a poliomielite. Já vencemos em grande parte a fome e até mesmo as guerras estão em declínio constante.

Se nosso futuro é parecido com o nosso passado, então podemos ser otimistas com razão sobre o futuro da inteligência artificial. Uma superinteligência artificial então será o que faremos com ela, assim como as crianças são mais do que apenas o produto biológico de seus pais, é fundamental que decidamos como uma civilização exatamente que tipo de superinteligência artificial desejamos criar.


Assista o vídeo: AS MÁQUINAS VÃO DOMINAR O MUNDO? Riscos da Inteligência Artificial (Novembro 2021).