Translate

quinta-feira, 26 de março de 2015

Como poderia a superinteligência artificial acabar com a humanidade em um segundo?


A criação de superinteligência artificial implica o problema grave que as máquinas podem escapar do controle humano e agir com "vontade" própria. Se assim for, pode acabar com a humanidade em um segundo.
Este ponto de vista dos perigos associados a inteligência artificial corresponde ao matemático e filósofo sueco Nick Bostorm, diretor do Instituto para o Futuro da Humanidade, da Universidade de Oxford, e autor do famoso livro "A superinteligência: estradas, perigos, estratégias ' . Em uma entrevista para a revista 'Esquire' o filósofo explicou por que, em sua opinião, não devem se alegrar muito do progresso na pesquisa de superinteligência artificial.

E ele não está sozinho nesta. Ultimamente se tem reavivado a questão das  consequências da criação de superinteligência artificial  e vários cientistas, incluindo Elon Musk e  Stephen Hawking , se manifestaram contra estes avanços já que em sua opinião pode ameaçar a humanidade.

Na entrevista Nick Bostorm observa que em áreas como logística, reconhecimento automático de fala e busca de informações, as máquinas já estão acima do ser humano , mas "ainda não tem o raciocínio " e a criação de superinteligência artificial é ainda uma questão de tempo.

De acordo com o cientista, o surgimento de superinteligência artificial traz um outro problema relacionado com a possível rejeição de permanecer sob o controle da humanidade.

Nick Bostorm garante que, ao contrário dos scripts típicos de filmes de Hollywood, em que máquinas com superinteligência artificial são derrotados por seres humanos com habilidades especiais, na vida real, isso seria improvável. As máquinas poderiam acabar com a humanidade em apenas um segundo, " A Terra se tornaria um computador que passaria bilhões de anos fazendo cálculos incompreensíveis ".

Uma vez que é impossível impedir estudos de superinteligência artificial de continuar, Nick Bostorm acredita que é necessário "concentrar-se no trabalho que pode reduzir os riscos de ter uma superinteligência artificial descontrolada antes de ser criada." Para conseguir isso, você deve "estabelecer uma comunidade profissional com os empresários, cientistas e pesquisadores," a comunidade ", também dirigido estudos científicos em direção segura e desenvolver meios de controle sobre seus resultados", disse o cientista famoso.
RT