Na semana passada, cientistas se movimentaram para assinar esta carta aberta. Basicamente, a proposta pede que a humanidade dedique uma porção da sua pesquisa em inteligência artificial para “alinhá-la aos interesses humanos”. Em outras palavras, vamos tentar não criar nós mesmos os Cavaleiros do Apocalipse, né pessoal?
Embora alguns cientistas revirem os olhos a qualquer menção a uma Singularidade, muitos especialistas e tecnólogos – como, digamos, Stephen Hawking e Elon Musk – vêm nos alertando sobre os perigos que a IA pode representar no futuro. Mas embora recomendem a busca por conhecimento na área com cautela, eles são um pouco menos claros sobre o que exatamente estão tentando alertar.
Felizmente, outros cientistas não fazem cerimônia na hora de pintar o cenário do caos. Aqui estão cinco das mais ameaçadoras profecias de destruição pela singularidade que nossas mentes mais brilhantes temem que possam acontecer.
As máquinas tomarão nossos empregos
O primeiro impacto da tecnologia
Daniel Dewey, pesquisador no Instituto do Futuro da Humanidade, pega carona no pensamento de Armstrong na Aeon Magazine. Afinal, se e quando os humanos ficarem obsoletos, viraremos apenas pedras nos sapatos metafóricos dos robôs.
. “Mas nessa diferença reside o contraste entre sete bilhões de habitantes e um lugar permanente na lista de espécies ameaçadas. Ou seja, é possível que uma vantagem intelectual relativamente pequena se agrave rapidamente e torne-se um fator decisivo.”
... “O problema básico é a forte percepção de que a maioria das motivações é incompatível com a existência humana,” diz Dewey. “Uma IA pode querer fazer certas coisas com a matéria para alcançar um objetivo, coisas como construir computadores gigantes, ou outros projetos de engenharia de larga escala. Essas coisas podem envolver etapas intermediárias, como dilacerar a Terra para construir enormes painéis solares. Uma super-inteligência pode não levar os nossos interesses em conta nessas situações, da mesma forma que não ligamos para sistemas de raízes e colônias de formigas quando vamos construir um prédio.”
Você poderia dar a ela uma meta benevolente – algo fofinho e utilitário, como maximizar a felicidade humana. Mas uma IA pode achar que a felicidade humana é um fenômeno bioquímico. Ela pode achar que inundar a nossa corrente sanguínea com doses não letais de heroína é a melhor forma de maximizar a nossa felicidade.
A inteligência artificial não será tão inteligente
“Estou especialmente preocupado com o possível uso militar de sistemas de armas robóticas – sistemas que podem tomar a decisão de entrar em uma batalha sem intervenção humana --, precisamente porque a IA atual não é muito boa e pode facilmente piorar uma situação, com consequências potencialmente aterrorizantes,” disse o Professor Bishop.
“Então é fácil concordar que a IA talvez represente uma ‘ameaça existencial’ real à humanidade sem ter que imaginar que ela algum dia chegue ao nível de inteligência super humana,” disse. Devemos temer a IA, mas pelos motivos contrários aos dados pelo Professor Hawking, explicou.
A síndrome de Wall-E
Nós notamos que a raça humana pode facilmente se permitir manter em uma posição de tamanha dependência das máquinas a ponto de não ter uma escolha prática que não a de aceitar todas as decisões das máquinas. Na medida em que a sociedade e os problemas que ela enfrenta se tornam mais e mais complexos - e as máquinas, mais e mais inteligentes - as pessoas deixarão que máquinas tomem as decisões por elas, simplesmente porque decisões feitas por máquinas trarão resultados melhores que as tomadas por humanos. Em certo ponto, talvez seja alcançado um estágio no qual as decisões necessárias para manter o sistema funcionando serão tão complexas que seres humanos serão incapazes de tomá-las de maneira inteligente. Nesse ponto, as máquinas estarão efetivamente no controle. As pessoas não conseguirão desligá-las, porque serão tão dependentes que o desligamento equivaleria ao suicídio.
Os robôs irão nos devorar
Se as máquinas da nanotecnologia – que podem ser cem mil vezes menores que o diâmetro de um fio de cabelo – descobrirem como se replicar espontaneamente, isso naturalmente traria implicações medonhas à humanidade
Se a nanotecnologia desenvolver um apetite pode carne humana – ou alguma das outras coisas de que dependemos para sobreviver, como florestas ou máquinas --, ela poderia dizimar tudo no planeta em questão de dias. Esses minirrobôs famintos poderiam transformar o nosso lar azul e verde em uma bola cinzenta
Fonte: http://www.msn.com/pt-br/noticias/ciencia-e-tecnologia/cinco-especialistas-explicam-como-a-intelig%C3%AAncia-artificial-pode-acabar-com-a-humanidade/ar-AA8nVSF?ocid=mailsignoutmd