Cientistas e engenheiros alertam para os perigos da inteligência artificial


Recentemente, foi divulgada uma carta aberta pedindo cautela para garantir que máquinas inteligentes não sejam executadas de maneira irresponsável, e ela foi assinada por um grande e crescente número de pessoas, incluindo algumas das principais figuras da área de inteligência artificial.
O medo de nossas próprias criações remontam ao cenário de Frankenstein, e de filmes como O Exterminador do Futuro
, dando-nos uma nova abordagem (ou melhor, um experimento de pensamento) para discutir o que aconteceria se os robôs parassem de receber ordens humanas.
Em dezembro, Stephen Hawking deu reinício a um velho debate sobre os problemas da inteligência artificial. Como ele é alguém cuja a capacidade de comunicação depende exclusivamente da tecnologia de um computador avançado, Hawking dificilmente poderia ser ignorado (mesmo que em ciência não exista autoridades).
A carta foi divulgada pela Future of Life Institute, uma organização de voluntários que se descreve como “trabalhadores que investigam os riscos existenciais que a humanidade enfrenta”. Segue a nota:
“Os recursos que são oferecidos nessas áreas geralmente cruzam o limiar da pesquisa de laboratório em tecnologias economicamente valiosas, um ciclo virtuoso que acontece mesmo em pequenas melhorias no desempenho que valem grandes somas de dinheiro, levando a maiores investimentos em pesquisa. Agora existe um amplo consenso de que a pesquisa em IA está progredindo de forma constante, e que seu impacto na sociedade é susceptível de aumentar. Os benefícios potenciais são enormes, uma vez que tudo que a civilização tem para oferecer é um produto da inteligência humana; não podemos prever o que poderíamos conseguir quando essa inteligência for ampliada pelas ferramentas fornecidas a IA, mas a erradicação da doença e da pobreza não são insondáveis. Devido ao grande potencial da AI, é importante pesquisar como colher seus benefícios, evitando potenciais armadilhas “.
Os autores acrescentam que “os sistemas de IA devem fazer o que quer que eles façam”, e definem que as prioridades na investigação ajudarão a “maximizar o benefício social da AI”.
Qualquer um pode assinar, e no momento da edição deste texto bem mais de mil pessoas já o fizeram. Apesar de muitos não indicarem qualquer afiliação, nomes como Elon Musk e o próprio Stephen Hawking são facilmente reconhecidos. Muitos outros nomes da lista figuram entre os principais pesquisadores na área de TI ou filosofia, incluindo a equipe da IBM por trás do supercomputador Watson.
Com tanto peso intelectual e financeiro, existe uma boa perspectiva para a realização de pesquisas nas áreas propostas. Musk disse que investe em empresas que pesquisam em IA. Mas ele teme que, mesmo que a maioria dos pesquisadores se comportem de forma responsável, na ausência de uma regulamentação internacional, uma única nação desonesta ou corporação poderia produzir máquinas auto-replicantes cujas prioridades poderiam ser muito diferentes para a humanidade.
Em uma notícia publicada na New Scientist
, um especialista decidiu rebater algumas das afirmações do físico Stephen Hawking sobre os possíveis problemas em Inteligência Artificial. O autor levanta algumas questões científico-filosóficas sobre como analisar os perigos da Inteligência Artificial, se quiser ler o artigo completo, clique aqui.
Stephen Luntz. Scientists and engineers warn of the dangers of artificial intelligence.
2015.
View the original article here

Comentários

Postagens mais visitadas deste blog

Tectonismo ou diastrofismo

Revólver Mle 1892- equipamentos de guerra

PROGRAMA BH CIDADANIA: AS RELAÇÕES COM A REDE COMUNITÁRIA E A POPULAÇÃO DO BAIRRO JARDIM FELICIDADE