Buscar

Possibilidade de hostil AI anterior amigável AI

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

Possibilidade de hostil AI anterior amigável AI 
Um problema significativo é que a inteligência artificial hostil é 
provavelmente muito mais fácil de criar do que a AI amigável. 
Embora ambos exijam grandes avanços no design do processo 
de otimização recursiva, a IA amigável também requer a 
capacidade de tornar as estruturas de metas invariáveis sob o 
autoaperfeiçoamento e uma estrutura de metas que se alinhe 
com os valores humanos e não automaticamente destruir toda a 
raça humana. 
Uma IA hostil, por outro lado, pode otimizar para uma estrutura 
de objetivo arbitrária, que não precisa ser invariável sob 
automodificação. 
A grande complexidade dos sistemas de valores humanos torna 
muito difícil tornar as motivações da IA amigáveis aos humanos. 
A menos que a filosofia moral nos forneça uma teoria ética 
perfeita, a função de utilidade de uma IA poderia permitir muitos 
cenários potencialmente prejudiciais que se conformam com 
uma determinada estrutura ética, mas não com o "bom senso". 
Muitos estudiosos, incluindo o psicólogo evolucionista Steven 
Pinker, argumentam que uma máquina superinteligente 
provavelmente coexistirá pacificamente com os humanos. 
O medo de uma revolta cibernética é frequentemente baseado 
em interpretações da história da humanidade, que está repleta 
de incidentes de escravidão e genocídio. Esses medos derivam 
da crença de que a competitividade e a agressão são necessárias 
no sistema de metas de qualquer ser inteligente. 
No entanto, essa competitividade humana origina-se do pano de 
fundo evolucionário de nossa inteligência, onde a sobrevivência 
e a reprodução dos genes diante de competidores humanos e 
não humanos era o objetivo central. 
Mas a questão permanece: o que aconteceria se os sistemas de 
IA pudessem interagir e evoluir e precisassem competir por 
recursos - isso criaria metas de autopreservação? O objetivo de 
autopreservação da IA pode estar em conflito com alguns 
objetivos dos humanos.

Outros materiais