Koristi in nevarnosti umetne inteligence

Avtor najbolj znanega neoklasičnega modela rasti (model eksogene rasti) Robert Solow (iz MIT) je nekoč glede prispevka računalnikov k rasti produktivnosti zapisal, da lahko “vsepovsod vidimo računalniško dobo – razen v statistiki produktivnosti“. To danes imenujemo Solowov računalniški paradox.

“You can see the computer age everywhere but in the productivity statistics.”
— Robert Solow, New York Times Book Review, July 1987

Glede pomena računalnikov za rast produktivnosti je nato prevladala sarkastična hipoteza Paula Krugmana, da je k rasti produktivnosti v 20. stoletju bistveno več od računalnikov prispevala iznajdba pralnih in pomivalnih strojev.

Podobno bo najbrž tudi glede učinkov umetne inteligence. Iz istega MIT (Massachusetts Institute of Technology” prihajata glede tega dve povsem različni oceni. Prva ocena se nanaša na izjemno široko navajan znanstveni članek z naslovom “Artificial Intelligence, Scientific Discovery, and Product Innovation”, ki ga je napisal Aidan Toner-Rodgers, nekdanji doktorski študent na MIT. Članek, ki je bil v fazi recenzije objavljen na spletnem repozitoriju arXiv novembra lani, je bil deležen pohval, saj je trdil, da lahko orodja umetne inteligence (UI) znatno povečajo produktivnost v laboratorijih za materialno znanost. Po navedbah raziskave so raziskovalci, ki so uporabljali UI, odkrili 44 % več novih materialov, vložili 39 % več patentnih prijav in dosegli 17 % večjo stopnjo inovacij pri končnih izdelkih. Vendar pa so bile te koristi večinoma omejene na že visoko uspešne znanstvenike, medtem ko se je splošno zadovoljstvo pri delu zmanjšalo – predvsem zaradi občutka zmanjšane ustvarjalnosti in manjše uporabe lastnih veščin. Toda kmalu so se pojavili resni dvomi o verodostojnosti raziskave, ko je nek računalniški znanstvenik podvomil v zanesljivost podatkov in uporabljeno metodologijo. MIT je nato izvedel notranjo revizijo, ki je ugotovila, da “nima zaupanja v izvor, zanesljivost ali veljavnost podatkov”, prav tako pa “nima zaupanja v resničnost ugotovitev, predstavljenih v raziskavi“. Univerza je zato pozvala k umiku članka z repozitorija arXiv ter k ustavitvi postopka objave v reviji Quarterly Journal of Economics. Doktorski študent Aidan Toner-Rodgers se je moral posloviti z MIT.

Ironično, ta primer najbolje osvetljuje problem umetne inteligence in njene uporabnosti in seveda nujnost stroge validacije podatkov in popolne preglednosti v raziskavah, kjer je bodisi predmet raziskovanja bodisi uporabljena pomoč umetne inteligence. Še posebej, ko imajo te študije potencialni vpliv na oblikovanje politik in javno zaznan pomen tehnologij.

Drugi primer je nedavni članek, ki tudi prihaja od avtorja iz MIT, tokrat od lanskega nobelovega nagrajenca Darona Acemogluja (“The simple macroeconomics of AI“), ki pa obratno pravi, da bo prispevek umetne inteligence k rasti produktivnosti zmeren (med 0.53 % in 0.66 % BDP v 10 letih. Pravi tudi še troje: (1) da lahko uporaba UI nekoliko poveča neenakost in prerazdelitev dohodka med delom in kapitalom, (2) vendar bo ta učinek na povečanje neenakosti manjši kot v primeru avtomatizacije, ker je uporaba AI bolj enakomernom porazdeljena med kvalifikacijskimi profili zaposlenih, in (3) da ima lahko uporaba UI negativne družbene učinke zaradi možnosti dizajniranja škodljivih oziroma manipulativnih algoritmov.

Using existing estimates on exposure to AI and productivity improvements at the task level, these macroeconomic effects appear non-trivial but modest – no more than a 0.66% increase in total factor productivity (TFP) over 10 years. The paper then argues that even these estimates could be exaggerated, because early evidence is from easy-to-learn tasks, whereas some of the future effects will come from hard-to-learn tasks, where there are many context-dependent factors affecting decision-making and no objective outcome measures from which to learn successful performance. Consequently, predicted TFP gains over the next 10 years are even more modest and are predicted to be less than 0.53%. I also explore AI’s wage and inequality effects. I show theoretically that even when AI improves the productivity of low-skill workers in certain tasks (without creating new tasks for them), this may increase rather than reduce inequality. Empirically, I find that AI advances are unlikely to increase inequality as much as previous automation technologies because their impact is more equally distributed across demographic groups, but there is also no evidence that AI will reduce labour income inequality. Instead, AI is predicted to widen the gap between capital and labour income. Finally, some of the new tasks created by AI may have negative social value (such as the design of algorithms for online manipulation), and I discuss how to incorporate the macroeconomic effects of new tasks that may have negative social value.

Vir: Economic Policy

Vse to pa seveda ne pomeni, da uporaba UI ne more biti parcialno koristna pri mnogih stvareh, definitivno v programiranju, prevajanju in delno tudi v znanosti, denimo pri kreiranju idej (iskanju niš in oblikovanju idej), matematični formalizaciji modelov in pisanju kode za empirične teste:

Pri uporabi UI je hudič v tem, da njenim produktom ne moreš zaupati. Denimo jaz jo koristno uporabljam, če se ne morem spomniti kakšnega trika pri empiričnem testiranju v Stati, kjer UI učinkovito poišče rešitev. Problem pa vedno nastopi pri povzemanju literature, ker si UI vedno znova (in še vedno) izmišljuje raziskave ali ugotovitve ali pa te ugotovitve pripiše nekemu drugemu članku. Treba je preveriti vsak posamezen vir in njegovo vsebino ali res ustrezajo dejanskemu stanju in ali niso pomembni viri izpuščeni. Tukaj še vedno velja, da moraš svoje področje zelo dobro poznati, sicer hitro postaneš žrtev “kreativnosti” UI.

Zadnjič se mi je pripetila zanimiva anekdota glede tega. Na blogu sem objavil kratek povzetek komentarja enega avtorja (ki mu zaupam) in link na ta članek, ki je bil komentiran. Nakar mi je pisal kolega, da je ta link preveril s ChatGPT in da komentiran članek sploh ne govori o tem, kar sem jaz navajal. Primerjava med navajanim člankom in “preverbo” s strani ChatGPT pa je pokazala, da si je ChatGPT gladko izmislil to svojo “preverbo” oziroma da “preverba” sploh ni imela zveze s tem navajanim člankom. Ker se je članek nanašal na podnebne spremembe, je bil logičen sklep, da obstaja možnost, da je ChatGPT “naučen, da ima pozitiven odnos” do tega, da so podnebne spremembe človeško povzročene in da dvome glede tega pripisuje teorijam zarote, nepreverjenim podatkom, pomanjkljivi metodologiji ipd.

Torej nekaj podobnega temu, kar danes očitajo Muskovi UI mašini Grok – da širi propagando glede “belega genocida” v Južni Afriki. Natančneje, da v svojih odgovorih na različna vprašanja, pogosto nepovezana s politiko ali Južno Afriko, vztrajno omenja “beli genocid” v Južni Afriki. Te trditve so pogosto vključevale sklicevanje na pesem “Kill the Boer” in zatrjevanja o nasilju nad belimi kmeti, kar je povzročilo zaskrbljenost zaradi politične pristranskosti in širjenja dezinformacij prek Grok.

Hudič pri umetni inteligenci je, da je lahko pogojno koristna, hkrati pa lahko služi kot izjemno nevarno manipulativno orožje v rokah njenih kreatorjev.