Baixe o app para aproveitar ainda mais
Prévia do material em texto
Possibilidade de hostil AI anterior amigável AI Um problema significativo é que a inteligência artificial hostil é provavelmente muito mais fácil de criar do que a AI amigável. Embora ambos exijam grandes avanços no design do processo de otimização recursiva, a IA amigável também requer a capacidade de tornar as estruturas de metas invariáveis sob o autoaperfeiçoamento e uma estrutura de metas que se alinhe com os valores humanos e não automaticamente destruir toda a raça humana. Uma IA hostil, por outro lado, pode otimizar para uma estrutura de objetivo arbitrária, que não precisa ser invariável sob automodificação. A grande complexidade dos sistemas de valores humanos torna muito difícil tornar as motivações da IA amigáveis aos humanos. A menos que a filosofia moral nos forneça uma teoria ética perfeita, a função de utilidade de uma IA poderia permitir muitos cenários potencialmente prejudiciais que se conformam com uma determinada estrutura ética, mas não com o "bom senso". Muitos estudiosos, incluindo o psicólogo evolucionista Steven Pinker, argumentam que uma máquina superinteligente provavelmente coexistirá pacificamente com os humanos. O medo de uma revolta cibernética é frequentemente baseado em interpretações da história da humanidade, que está repleta de incidentes de escravidão e genocídio. Esses medos derivam da crença de que a competitividade e a agressão são necessárias no sistema de metas de qualquer ser inteligente. No entanto, essa competitividade humana origina-se do pano de fundo evolucionário de nossa inteligência, onde a sobrevivência e a reprodução dos genes diante de competidores humanos e não humanos era o objetivo central. Mas a questão permanece: o que aconteceria se os sistemas de IA pudessem interagir e evoluir e precisassem competir por recursos - isso criaria metas de autopreservação? O objetivo de autopreservação da IA pode estar em conflito com alguns objetivos dos humanos.
Compartilhar