Le periculos de intelligentia artificial

Risco existential a causa de intelligentia artificial es le hypothese que progresso substantial in intelligentia artificial (AI) poterea un die resulta in extinction de le humanitate, o alicun altere catastrophe global irrecuperabile.

On argue que le specie human hodie domina altere species proque le cerebro human habe alicun capabilitates distinctive que altere animales care. Si AI superara le humanitate secundo intelligentia general e devenira "superintelligente", tunc iste nove superintelligentia poterea devenir potente e difficile a controlar.

Assi como le fato de le gorilla de montania depende de le benevolentia de homines, assi poterea le fato de le humanitate depender de le actiones de future superintelligentia machinal.

Le probabilitate de iste typo de scenario es debattite circa le mundo, e depende in parte de scenarios differente de progresso future in informatica. Un vice le dominio exclusive de science-fiction, anxietates super superintelligentia comenciava devenir general in le decennio 2010, e esseva popularisate per personas public como Stephen Hawking, Bill Gates, e Elon Musk.

Un fonte de anxietate es que controlar un machina superintelligente, o instillar lo per valores compatibile con homines, pote esser un problema plus difficile que on suppone naivemente. Multe recercatores crede que un superintelligentia naturalmente resisterea essayos stoppar lo o cambiar su scopos - un principio nominate "convergentia instrumental" - e que pre-programmar un superintelligentia per un ensemble de valores human plen essera un carga technical extrememente difficile.

In contrasto, scepticos como Yann LeCun de Facebook argue que machinas superintelligente habera nulle desiro a preservation de se mesme.

Un secunde fonte de anxietate es que un "explosion de intelligentia" subite e impreviste poterea surprender un humanitate nonpreparate. Per exemplo, in un scenario, le programma de computator de prime generation que pote generalmente equalar le efficacia de un recercatore de AI, pote rescriber su algorithmos e duplar su rapiditate o capabilitates in sex menses.

On expecta que le programma de secunde generation requirerea tres menses calendarial pro executar un similar pecia de laboro, mediamente; in le practica, duplar su proprie capabilitates poterea durar plus longe si illo experientia un parve "hiberno de AI", o poterea esser plus rapide si illo suffre un parve "primavera de AI" ubi ideas ab le generation previe es specialmente facile a mutar a in le generation sequente.

In iste scenario le tempore pro cata generation continua decrescer, e in le systema occurre un numero de generationes de melioration grande sin precedente durante un tempore curte, saltante ab un performance subhuman in multe areas a un performance superhuman in omne areas pertinente.

Plus generalmente, exemplos como AlphaZero pro le joco Go monstra que progresso ab AI de nivello human a habilitate superhuman es a vices extrememente rapide.


Secundo Wikipedia in anglese


Back to Interlingua

James Chandler 06-Jun-20