A szuperintelligens AI lesz a végzetünk?

Nick Bostrom 1997-ben publikált egy "cikket", amelyben azt állítja, hogy erős és növekvő nyomás lesz az AI emberi szintre történő javítására, azzal a garanciával vagy anélkül, hogy a kiváló mesterséges intellektus soha nem árt az embernek.

Stephen Hawking, Elon Musk, Steve Wozniak és a tudomány és a technológia sok más nagy neve a közelmúltban aggodalmának adott hangot az MI által jelentett kockázat miatt.

Ebben a cikkben a szuperintelligens AI-kkal kapcsolatos egzisztenciális kockázatokról fogunk beszélni.

Mesterséges intelligencia (AI)

Bostrom szerint az AI-t három különböző módon érzékelik:

  • ez olyasvalami, ami egyre nagyobb pontossággal válaszolhat minden kérdésére ("az Orákulum");
  • bármit megtehet, amire parancsolják („a dzsinn”), vagy
  • autonóm módon járhat el egy bizonyos hosszú távú cél („a Szuverén”) elérése érdekében.

Az AI-t azonban nem az alapján kell meghatározni, hogy mire képes vagy sem.

A mesterséges intelligencia rendszerek olyan algoritmikus modellek, amelyek olyan kognitív vagy észlelési funkciókat hajtanak végre a világban, amelyek korábban a gondolkodó, ítélkező és érvelő emberi lények számára voltak fenntartva.

A mesterséges intelligencia etikája

„A technológia lehetőséget ad az életnek arra, hogy úgy virágozzon, ahogy még soha nem volt – vagy az önmegsemmisítésre. Tegyünk változást!”
Future of Life Institute

A mesterséges intelligencia etikáját először Isaac Asimov 1942-es „Runaround” című novellájában mutatták be, mint a robotika három törvényét:

  1. A robot nem sérthet meg embert, vagy tétlenség miatt nem engedheti meg, hogy az ember kárt szenvedjen.
  2. A robotnak engedelmeskednie kell az emberektől kapott parancsoknak, kivéve, ha az ilyen parancsok ellentétesek az Első Törvénnyel.
  3. A robotnak meg kell védenie saját létezését mindaddig, amíg ez a védelem nem ütközik az Első vagy a Második Törvénybe.

Ezek a törvények nem a szuperintelligenciára összpontosítottak, hanem arra, amit „közönséges” MI-nek nevezhetünk.

Max Tegmark a mesterséges intelligenciáról szóló könyvében, az Élet 3.0: Being Human in the Age of Artificial Intelligence (Élet 3.0: Being Human in the Age of Artificial Intelligence» (Élet 3.0: Being Human in the Age of Artificial Intelligence) című könyvében azt mondja: „Nehéz még a széles körben elfogadott etikai elveket is a jövő mesterséges intelligenciájára alkalmazható formába kodifikálni, és ez a probléma komoly vitát érdemel. a kutatás, ahogy az AI folyamatosan halad.”

A 2017-es „szakértői előrejelzések felmérése” során Max a nézetek széles skáláját tárja fel arra vonatkozóan, hogy mi fog/kell történnie. Az alábbiakban néhány válasz található az első 14 866 embertől, akik részt vettek a Max könyvével kapcsolatos felmérésben.

  • Milyen hamar, és üdvözöljük vagy féljünk tőle?

Az első nagy vita, amely még a vezető mesterséges intelligenciakutatókat is megosztja, magában foglalja annak előrejelzését, hogy mi fog történni. Mikor, ha valaha is, a mesterséges intelligencia felülmúlja az embereket minden intellektuális feladatban, és ez jó dolog lesz?

  • Ha megérkezik a szuperintelligencia, kinek kell irányítania?

  • Az ideális társadalom?

Max „12 lehetséges jövőbeli forgatókönyvet” tár fel, leírva, hogy mi történhet az elkövetkező évezredekben, ha a szuperintelligencia fejlesztésre kerül/nem kerül ki. Íme az emberek által preferált lehetőségek eddigi lebontása:

Szuperintelligencia

"Az élet legszomorúbb aspektusa jelenleg az, hogy a tudomány gyorsabban gyűjti a tudást, mint a társadalom a bölcsességet."

Isaac Asimov

Bostrom szerint a „szuperintelligencia” egy olyan intellektus, amely gyakorlatilag minden területen sokkal okosabb, mint a legjobb emberi agy, beleértve a tudományos kreativitást, az általános bölcsességet és a szociális készségeket.

A szuperintelligencia lehet egy digitális számítógép, hálózatba kapcsolt számítógépek együttese, tenyésztett kérgi szövet vagy mi.

  • A szuperintelligencia irányítása

A 2014-es Bostrom „Szuperintelligencia: utak, veszélyek, stratégiák” című könyve nem csak azt vizsgálta, hogy egy szuperintelligens mesterséges intelligencia hogyan tud tönkretenni minket, hanem megvizsgálta egy ilyen gép lehetséges vezérlési stratégiáit is – és az okokat, amelyek miatt előfordulhat, hogy nem működnek.

Bostrom két lehetséges megoldást vázolt fel erre a „vezérlési problémára”:

  • Irányítsd, mit akar tenni, például tanítsd meg neki a szabályokat és az értékeket, hogy az emberiség legjobb érdekeit szolgálja.
  • Szabályozza, hogy az AI mire képes, például megakadályozza, hogy csatlakozzon az internethez.

Ezekkel a vezérlőkkel az a probléma, hogy Bostrom úgy gondolta, hogy egy szuperokos gép valószínűleg felszabadulhat az általunk kialakított kötésekből, és alapvetően attól tartott, hogy az emberek esetleg nem elég okosak egy szuperintelligens mesterséges intelligencia kiképzéséhez.

  • A teljes korlátozás kiszámíthatatlan

Alfonseca és munkatársai azt sugallják, hogy elképzelhetetlen lehet egy szuperintelligens mesterséges intelligencia irányítása, mert lehetetlen volt egyetlen védelmi algoritmusnak sem szimulálnia az AI viselkedését, és teljes bizonyossággal megjósolni, hogy tevékenysége kárt okozhat-e.

Azt mondja, hogy talán még azt sem tudjuk, hogy létrehoztunk-e szuperintelligens gépet, és felsorol három fontos figyelmeztetést a kutatással kapcsolatban, amelyek még mindig sok bizonytalanságot hagynak maguk után:

  • A mesterséges intelligencia igazság pillanata legalább két évszázaddal a jövőben marad.
  • A kutatók nem tudják, hogy elméletileg megvalósítható-e az úgynevezett mesterséges általános intelligencia, más néven erős mesterséges intelligencia.
  • Alfonseca azt mondja: "Nem bizonyítottuk, hogy a szuperintelligenciákat soha nem lehet irányítani, csak azt, hogy nem mindig irányíthatók."

A szuperintelligens mesterséges intelligencia kockázatai

"Valószínűleg a mesterséges intelligencia a legjobb vagy a legrosszabb dolog, ami az emberiséggel történt."

Stephen Hawking

Az a félelem, hogy a gépek elromlanak, hamis. Az igazi gond nem a rosszindulat, hanem a hozzáértés.

A szuperintelligens mesterséges intelligencia értelemszerűen nagyon jó céljainak elérésében, legyenek azok bármilyenek is, ezért gondoskodnunk kell arról, hogy az Ön céljai összhangban legyenek a mieinkkel.

Ahhoz, hogy bajba kerüljünk, az emberfeletti intelligenciának nincs szüksége robottestre, csak internetkapcsolatra.

Még ha fizikailag lehetetlen is lenne robotokat építeni, egy szuperintelligens és szupergazdag mesterséges intelligencia könnyen fizethet vagy manipulálhat sok embert, hogy akaratlanul is teljesítse parancsait.

A robot tévhit azzal a mítosszal kapcsolatos, hogy a gépek nem tudják irányítani az embereket. Az intelligencia lehetővé teszi az irányítást: az emberek nem azért irányítják a tigriseket, mert erősebbek vagyunk, hanem azért, mert okosabbak vagyunk.

Ez azt jelenti, hogy ha feladjuk pozíciónkat a bolygó legokosabb embereként, akkor az irányítást is feladhatjuk.

Ennyi a cikkhez, köszönöm, hogy elolvastad! Kapcsolatba léphet velem a LinkedIn-en az alábbi linken:

Referenciák

  • Bostrom, N.; Szuperintelligencia: utak, veszélyek, stratégiák, OXFORD University Press, 2014
  • Leslie, D., Burr, C., Aitken, M., Cowls, J., Katell, M. és Briggs, M.; Mesterséges intelligencia, emberi jogok, demokrácia és jogállamiság: alapozó; Az Európa Tanács, 2021.
  • Alfonseca, M. et al, Superintelligence Cannot be Contained: Lessons from Computability Theory, Journal of Artificial Intelligence Research, 2021
  • Tegmark, M.; Élet 3.0 Embernek lenni a mesterséges intelligencia korában, Alfred A. Knopf, 2017
  • Future of Life Institute, https://futureoflife.org/