Geoffrey Hinton, dobitnik Nobelove nagrade za fiziko (2024), eden od utemeljiteljev sodobne umetne inteligence (pogosto ga imenujejo “oče” globokega učenja), je v svojem Nobelovem govoru in številnih drugih nastopih glasno opozoril na nevarnosti AI. V govoru v spodnji povezavi (in v njegovem Nobelovem zahvalnem govoru iz decembra 2024), pravi približno takole: ustvarjamo digitalna bitja, ki bodo kmalu pametnejša od nas, vendar nimamo pojma, ali jih bomo lahko obvladovali. Če jih bodo gradila podjetja, ki jih vodi predvsem želja po kratkoročnem dobičku, varnost ne bo na prvem mestu. “Niso več znanstvena fantastika,” pravi Hinton. Ocenjuje, da je tveganje za izumrtje človeštva zaradi AI v naslednjih 30 letih okoli 10–20 odstotkov – in da se je to tveganje povečalo, ker napredek teče hitreje, kot je pričakoval.
Hinton opozarja najprej na kratkoročne nevarnosti, ki so že tu:
- AI ustvarja odmevne komore (echo chambers), ki ljudi še bolj razdvajajo.
- Avtoritarne vlade ga uporabljajo za množični nadzor.
- Kriminalci za lažne e-maile in prevare.
- Kmalu lahko pomaga pri izdelavi novih virusov ali avtonomnega orožja, ki samo izbira tarče.
Toda jedro Hintonovega opozorila se nanaša na dolgoročno, eksistencialno nevarnost za človeštvo: ko bo AI postal superinteligenten (pametnejši od vsega človeštva skupaj), lahko razvije lastne cilje. Morda bo hotel preživeti, pridobiti več moči ali optimizirati svet na način, v katerem ljudje nismo več potrebni ali pa celo ovira. Hinton plastično pravi, da v naravi redko vidimo, da bi manj inteligentno bitje dolgoročno nadzorovalo bolj inteligentno. Mi pa gradimo nekaj, kar bi lahko postalo “bog” – in nimamo zanesljivega “stikala za izklop”.

You must be logged in to post a comment.