Alig húsz évvel ezelőtt a mesterséges intelligencia (AI) volt a filmek, könyvek és novellák cselekményvonala. Amíg a láthatáron derengett, a világ és a cégvezetők figyelmét csak most kapja meg. 2016 után néhány nappal Mark Zuckerberg, a Facebook munkatársa bejelentette, hogy 2016-ot egy mesterséges intelligencia-rendszer kifejlesztésére tervezi, hogy segítse életét. „Facebook-bejegyzésében” kijelentette: „Személyes kihívásom 2016-ban egy egyszerű mesterséges intelligencia létrehozása az otthonom működtetésére és a munkám segítésére. Úgy gondolhatod, mint Jarvist a Vasemberben. Így folytatta megközelítésének felvázolásával: „Azzal kezdem, hogy megvizsgálom, milyen technológia létezik már. Aztán elkezdem tanítani, hogy megértse a hangomat, és mindent irányíthasson otthonunkban – a zenét, a fényeket, a hőmérsékletet és így tovább.” Zuckerberg a mesterséges intelligencia gyakorlati alkalmazásairól is beszélt, az arcfelismerő ajtócsengő rendszertől a babafigyelőig új gyermeke számára. Azt is tervezi, hogy egyesíti a mesterséges intelligenciát a virtuális valósággal, megjelenítve a „VR-adatokat”, hogy jobban elemezhesse szolgáltatásait és szervezeteit.

Mivel a téma egyre előtérbe kerül, a Wikimedia Alapítvány nemrégiben adott otthont egy „Mesterséges intelligencia” című rendezvénynek. és a törvény” panel San Franciscóban, hogy megvitassák a mesterséges intelligencia által felvetett jogi kihívásokat és megoldásokat, kezdve a halálos autonóm fegyverektől, a vezető nélküli autókig és ROSS-ig, az első robotügyvédig. A panelen olyan lenyűgöző nevek szerepeltek, mint Rebecca Crootof, a Yale Law School információs társadalom projektjének ügyvezető igazgatója; Jimoh Ovbiagele, a ROSS Intelligence társalapítója és technológiai igazgatója; Christopher Reed, a Zenti ügyvezető igazgatója és általános jogtanácsosa; David Ahn, a Fenwick & West LLP partnere; és Chuck Roslof moderátor, a Wikimedia jogtanácsosa. A panel résztvevői azonosítottak néhányat a mesterséges intelligencia körüli kiemelkedő jogi és etikai problémák közül, amelyek az elkövetkező években felmerülnek.

Az analógia felhasználási módjai és határai

Crootof beszélt az analógiák használatának előnyeiről és hátrányairól az új technológia megvitatására. Az analógiák elérhetővé teszik az új technológiákat, és keretet adnak a róluk való gondolkodáshoz – de ugyanakkor bedobnak minket is. Crootof megjegyezte, hogy az autonóm fegyverrendszereket általában terminátoroknak vagy függetlenebb drónoknak tekintik, de az állatok talán a jobb analógia. És mindhárom lehetőség – harcosok, fegyverek és állatok – visszatart bennünket attól, hogy testetlen autonóm kiberfegyverekre gondoljunk. Azt is megjegyezte, hogy az autonóm járművek „önvezető autóként” való felfogása korlátozza a képzeletünket a tervezés, használat és szabályozás tekintetében.

Megfelelő szintű emberi kontroll

Crootof szerint „az AI megkérdőjelezi azokat a feltételezéseket, amelyeket korábban természetesnek tartottunk – nevezetesen az emberi döntéshozatal szükségességét”. Különféle kérdéseket sorolt ​​fel, amelyek a mesterséges intelligencia fegyverrendszerekbe való bevezetése során felmerültek, többek között: Mit jelent egy támadás feletti értelmes emberi kontroll? Meg kell húzni a ravaszt az irányítás gyakorlásához? Elég egy vétójoggal rendelkező emberi megfigyelő? Vagy elég, ha emberi lények írták az eredeti kódot? Kit kell felelősségre vonni, ha egy autonóm fegyverrendszer háborús bűnt követ el? Mindezek a kérdések megkövetelik tőlünk, hogy meghatározzuk a mesterséges intelligencia feletti emberi ellenőrzés megfelelő mértékét – és azt, hogy kit kell felelősségre vonni, ha előre nem látható tetteik kárt okoznak.

Az EU AI „magyarázhatósági” követelménye

Az EU törvényhozói a mesterséges intelligencia „magyarázhatósági” követelményét fontolgatják, ami megköveteli, hogy a mesterségesintelligencia-szoftveren keresztül hozott jelentős döntések „magyarázhatóak legyenek”. Például, ha a mesterséges intelligencia úgy dönt, hogy besorol egy személyt, a döntést úgy kell megmagyarázni, hogy az emberek megértsék. Reed ellenezte ezt a követelményt, mondván: „Alapvetően az emberek olyan dolgokról alkotnak törvényeket, amelyekről fogalmuk sincs. Irreálisan azt feltételezik, hogy ahhoz, hogy a mesterséges intelligencia elszámoltatható legyen, kapcsolatnak kell lennie egy olyan okozati összefüggéssel, amelyet az ember megért." Hozzátette: "Nehéz lesz az Európai Uniónak betartatni ezt a jogszabályt, mert nehéz lehet felismerni a mesterséges intelligencia hatásait." Ovbiagele hasonló érzéseket vallott, mondván: „A mesterséges intelligencia nagy részét nem lehet megmagyarázni. Gyakran nehéz megmagyarázni, hogy az AI hogyan hoz döntéseket. Valójában az emberek nem mindig tudják megmagyarázni, hogyan hoznak döntéseket. Tehát ez a követelmény alapvetően hibás lehet.”

Szellemi tulajdon

A legtöbb technológiához hasonlóan az AI-t is elsősorban szabadalmak, szerzői jogok és üzleti titkok védik. „A szabadalmak biztosítják a legerősebb védelmet” a mesterséges intelligencia számára – mondta Ahn. Kifejtette, hogy mivel a mesterséges intelligencia elsősorban technikailag vezérelt, „az AI találmányok többnyire szabadalmazhatók, bár néhány absztrakt mesterséges intelligencia-koncepcióval kapcsolatos találmány problémát jelenthet a közelmúltban hozott bírósági döntések fényében.” Azonban probléma merül fel, amikor az AI-rendszerek olyan műveket hoznak létre, mint például az írás vagy a zene. Ezek a művek védhetők? „A válasz erre a kérdésre jelenleg „nem” – magyarázta Ahn. A szellemi tulajdonra vonatkozó törvények a természetes személyekre irányulnak. Ennek megfelelően „jelenleg nagyon valószínűtlen, hogy egy mesterséges intelligenciát feltalálóként, szerzőként vagy alkotóként ismerjenek el”.

Adatok és magánélet

Reed azt javasolta, hogy talán újra kell fogalmaznunk a mesterséges intelligencia és az adatvédelmi kérdések körüli vitát. „El kell fogadnunk, hogy a mesterséges intelligencia jót és rosszat is hoz. És nem kaphatunk mindenre engedélyt” – mondta. A politikai döntéshozóknak a mesterséges intelligencia teljes elutasítása helyett alternatív megoldásokat kell keresniük. Például „egyesek azt sugallják, hogy az információt gyűjtő [AI]-nak egy speciális kategóriába kell tartoznia, mint a közönséges hordozók, és magasabb színvonalon kell tartaniuk” – mondta Reed. Egy másik probléma az, hogy az AI-adatkészletek személyes adatokat tartalmazhatnak, ami adatvédelmi aggályokhoz vezethet. „Sokszor kapjuk ezt a kérdést. A ROSS adatvédelmi problémái nem egyediek. Évtizedek óta gyűjtötték az adatokat” – szögezte le Ovbiagele. Kifejtette: „A gépi tanulást hatalmas mennyiségű adat kezelésére hozták létre. A gépi tanulás miatt nem gyűjtünk több adatot. Gépi tanulást használunk, mert rengeteg adat áll rendelkezésünkre.” Ezzel az érveléssel arra a következtetésre jutott, hogy a mesterséges intelligencia nem hoz létre új potenciális adatvédelmi jogsértéseket azon túl, amelyek már jelen vannak a tömeges adatok létezésében. Crootof azonban megkérdőjelezte ezt a nézetet, rámutatva, hogy az erősebb eszközök (azaz a gépi tanulás) használata felerősítheti az adatvédelmi jogsértések lehetséges kárát. „Vigasztal az a gondolat, hogy az adataim egy tű egy nagyon nagy szénakazalban” – jegyezte meg. – De ha van egy erős mágnesed, az adataim közel sem olyan biztonságosak.

Míg a paneltagok kritikus kérdéseket vetettek fel, ezzel ellentétes aggodalomra ad okot, hogy túlreagáljuk, túlszabályozzuk és akaratlanul is lehűtjük az innovációt. Végső soron bárki használhatja ugyanazokat a hatékony eszközöket jóra vagy rosszra. Semmilyen szabályozás nem képes teljes mértékben megakadályozni egy adott eszközzel való visszaélést vagy visszaélést. Például egy késsel lehet főzni egy családi vacsorát, de rossz kezekben meg lehet ölni egy másik embert. Az eszköz céljának megértése és a felhasználó betanítása számít. Nem hibáztathatjuk egyszerűen a technológiát az emberi hibákért és a visszaélésekért. Ebben a döntő fejlődési időszakban egyensúlyba kell hoznunk szabályozási késztetésünket az innováció igényével, és el kell ismernünk, hogy az emberiséget semmi sem helyettesítheti.

Ennek a cikknek a társszerzője Katia Bloomés eredetileg az Association of Corporate Counsel (ACC) Docket adta ki.