Arrazoimen juridikoa AIan ezartzeak Giza Balioen Lerrokatzeak dio AIaren Etika eta AI Legeak

Gaurko zutabean, itxuraz desberdinak diren AIarekin lotutako hainbat gai bilduko ditut ederki ehundutako ehun batean.

Prest al zaude?

Imajinatu zeregin esanguratsuren bat egiten ari zaren bitartean laguntzen ari zaren AI bidezko aplikazio bat erabiltzen ari zarela. Agian kontua finantzarioa da edo osasunarekin zerikusia izan dezake. Funtsa da AIren menpe zaudela gauza egokia egiteko eta ustezko modu seguruan egiteko.

Demagun AI-a lurralde ez-etikoan sartzen dela.

Agian ez zara konturatzen AI hori egiten ari dela.

Esate baterako, AI ezkutatu daitezkeen faktore diskriminatzaileetan oinarritu liteke, hala nola arraza edo generoa, nahiz eta baliteke erabilera txarra antzemateko bide bideragarririk ez izatea. Hor zaude, bakarrik, makilaren mutur laburra eskuratzen, hasieratik era problematikoan asmatu den edo arrisku etiko arriskutsu eta mugakoetan sartzea lortu duen AI baten bidez (gehiago esango dut hau momentu batean).

Zer egin dezakezu edo zer egin daiteke bide ez-etikoan joatea aukeratzen duen IA-ri buruz?

Aldez aurretik AI eraikitzen saiatzeaz gain, horrelako ekintza maltzurrik egin ez dezan, aurretik ere zehaztu dut gero eta interes handiagoa dagoela bat txertatzeko. AI etika-kontrola bestela, Wild West edozertarako balio duen AI sistemak merkatura botatzen ari den zokan hazten ari den osagaia. Ideia da AI-n infusioa den aplikazio bat dimentsio etikoetatik kanpo joan ez dadin saiatzeko, AI gehigarria erabil genezake egiaztapena eta balantzea egiteko. Gehitutako AI hau zuzendutako AI aplikaziotik kanpo egon liteke edo egiaztapen bikoitza egin nahi dugun AIan txertatutako edo zuzenean inplantatutako osagai bat izan daiteke.

Lehen esan dudan bezala, ikusi esteka hemen: "Duela gutxi sortu den joera bat AI-n babesleku etikoak eraikitzen saiatzean datza, AI sistema baten gainerako sistema aurrez ezarritako muga etikoetatik haratago joaten hasten den heinean harrapatuko dutena. Zentzu batean, helburua da AI bera erabiltzea etikoki oker ez dadin. Esan dezakezu AI bera sendatzea helburu dugula” (Lance Eliot, “Crafting Ethical AI That Monitors Unethical AI And Tries To Deter Bad AI from Acting Up”, Forbes, 28ko martxoaren 2022a).

Baliteke nire liburuari buruzko interes garrantzitsua ere aurkitzea AI guardian bots, batzuetan aingeru zaindariak deitzen direnak, punta-puntako AI-in-AI txertatutako egiaztapen bikoitz honen oinarri teknikoak biltzen dituena, ikus esteka hemen.

Ondorioz, zure hirugiharra zorionez gorde daitekeela erabiltzen ari zaren AI aplikazio batean asmatutako eta ezarri den AI bikoitzaren egiaztapeneko elementu txertatuak erabilita. Baina hori nahikoa izango al da zaindari bat benetan ziurtatzeko AIak ez zaituela guztiz zurruntzen eta hasher lur kaltegarrietan ausartuko ez zaituela?

Ikusten duzu, AI aplikazioak itxuraz funtziona dezake Legez kanpoko ekintzak.

Gauza bat da jokabide etikotzat edo ez etikotzat jotzen ditugunen eremu gris batean sartzen den IA izatea. Era berean, jokabide kezkagarri batek eta ziurrenik okerrera egingo den kezkak marrazoa bezala jauzi egiten duen IA dakar eta legez kanpoko ekintzen iluntasun eskasera jaisten da.

Legez kanpoko IA txarra da. Legez kanpoko IA arretarik gabe uztea txarra da. Lege-irakasle batzuk argi eta garbi kezkatuta daude AIaren etorrerak eta hedadurak pixkanaka-pixkanaka eta beldurgarriki hondatuko duelako gure itxura. zuzenbide-estatua, ikusi nire analisia hemen esteka hemen.

Itxaron segundo bat, esango duzu agian.

AI garatzaileek egingo luketela pentsatzeko tentazioa izango duzu inoiz ez programatu beren IA legearen aurka joateko. Imajinaezina. Gaizto gaiztoek bakarrik egingo lukete hori (eta, bide batez, kontuan izan badaudela AI helburu gaiztoetarako nahita asmatu eta erabiltzen ari direnak, gaizkileentzat eta AI jarduera gaiztoetarako erabili nahi duten beste batzuentzat geroz eta interes handiagoa).

Sentitzen dugu, baina pentsatzekoa da gaiztoak ez diren AI garatzaile guztiek beren AI legedia guztiz errespetatzen dutela zorrozki ziurtatuko dutela. Gerta liteke AI-a autoegokitzea eta legez kanpoko jardueran ibiltzea. Jakina, AI garatzaileek AI legez kanpo jokatzea nahi zuten edo ez zekitela legez kanpoko ekintzak eta lege-ekintzak zer ziren AI lantzen ari zirenean (bai, hori oso posible da, alegia, buru-behera teknologia osoko AI taldeak ezjakin izan ditzake bere AIaren legezko traketsak, eta hori ez da aitzakiarik eta, hala ere, maiztasun kezkagarrian gertatzen da).

Zer egin daiteke honen aurrean?

Berriro ere, kanpoko AI-a erabatekoa eta legezkoa dela ziurtatzen saiatzeaz gain, lurruna irabazteko hurbilketa gehigarri batek AI aplikazioaren gainerako lege bikoizketa egiten duen AI osagai bat txertatzea edo ezartzea dakar. Isilik eserita eta askotan iragarri gabe, gehitutako AI honek gainerako AI-ak behatzen ari da AI-a desbideratuko den edo, gutxienez, ezarritako lege edo arauzko murrizketen mugak gaindituko dituen antzematen.

Orain, AI aplikazio batean txertatutako bi egiaztapen mota ditugu:

  • AI Etika egiaztatzaile bikoitza: Denbora errealean, osagai honek edo AI gehigarri honek gainerako IA ebaluatzen du AI-ak erakusten dituen jokabide etiko eta ez-etikoetarako.
  • AI legezko egiaztapen bikoitza: Denbora errealean, osagai honek edo AI gehigarri honek gainontzeko IA ebaluatzen du, legezko giltzarrietan mantentzea ziurtatzeko eta legez kanpoko jarduerak sortzen ari diren AIak harrapatzeko.

Argitzeko, kontzepzio nahiko berriak dira eta, beraz, gaur egun erabiltzen ari zaren AI-a egungo baldintza hauetako batean egon daiteke:

  • Egiaztatzaile bikoitzik sartuta ez duen AI
  • AI Etika egiaztatzaile bikoitza barne duen IA, baina beste egiaztapen bikoitzik ez duena
  • AI Legezko egiaztapen bikoitza barne duen AI, baina beste egiaztapen bikoitzik ez duena
  • AI Ethics egiaztatzaile bikoitza eta AI Legal egiaztatzaile bikoitza dituen AI
  • Bestelakoa

AI Ethics egiaztatzaile bikoitza eta AI Legal egiaztatzaile bikoitza AI aplikazio batean elkarren ondoan lan egiteak anaia-arreba gisa lan egitearen alderdi nabarmen delikatuak daude. Uste duzuna baino koordinatzea zailagoa izan daitekeen dualismo mota bat da (uste dut denok dakigula anai-arrebek lotura estuenak izan ditzaketela, nahiz eta noizean behin zakarrok bezala borrokatu eta kontrajarri biziak izan ditzaketela). bistak).

Luze eztabaidatu dut mota hau neketsu dualismo: "Urtezitako dualismo bat gertatzen ari da AI For Social Good-n, eta AI sistema aurreratuetan agentzia moral artifizialaren eta arrazoibide juridiko artifizialaren rola ez barne hartzen ari da. AI ikertzaileen eta AI garatzaileen ahaleginak eragile moral artifizialak nola landu eta txertatu behar izan ditu erabaki moralak gidatzeko AI sistema bat eremuan lanean ari denean, baina ez dute arrazoibide juridiko artifizialaren gaitasunen erabileran ere bideratu eta bateratu. , zeina berdin beharrezkoa da emaitza moral eta juridiko sendoak lortzeko" (Lance Eliot, "The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good", Harvard Unibertsitateko CRCS Annual Conference 2020, Harvard Center for Research and Computation Society)

AI Etika egiaztatzaile bikoitz baten eta AI Legal egiaztatzaile bikoitzaren artean zergatik egon daitekeen tentsioa argitu nahi baduzu, baliteke pentsamenduzko baliotasun kontzeptualaren aipamen nabarmen hau aurkitzea: "Legeak ekintza jakin bat baimendu dezake, nahiz eta ekintza hori inmorala izan; eta legeak egintza bat debekatu dezake, nahiz eta egintza hori moralki zilegi izan, edo moralki beharrezkoa den arren” (Shelly Kagan, Moralaren mugak, 1998).

Alda dezagun zertxobait gure ikuspegia eta ikus dezagun nola uztartzen diren egiaztatzaile bikoitz hauek oso aztertutako AI gai batean, hots. AI arduratsua edo giza baloreen eta AIren bat etortzea kontzertatuta.

Ideia orokorra da giza balio egoki eta desiragarriak betetzen dituen IA nahi dugula. Batzuek hau aipatzen dute AI arduratsua. Beste batzuek antzera eztabaidatzen dute AI arduratsua, AI fidagarria, eta AI Lerrokatzea, denak oinarri-printzipio bera ukitzen dutenak. Gai garrantzitsu horiei buruz dudan eztabaidarako, ikus esteka hemen esteka hemen, Gutxi batzuk aipatzearren.

Nola lor dezakegu IA giza balioekin bat etortzea?

Aurretik iradoki bezala, espero dugu AI garatzaileek AI arduratsuaren atxikimendua lortzen duten AI garatzen jakitea. Tamalez, baliteke ez izatea, lehen argitu diren arrazoien arabera. Horrez gain, hori egiten saiatuko dira, eta, hala ere, AIak jokabide etikoen eremu nabarmenetik haratago edo, agian, legez kanpoko uretara autoegokitzen amaitzen du.

Ondo da, orduan gure dandy bikoitzeko egiaztagailu erabilgarriak arrisku eta esposizio horiek aurre egiteko baliabide gisa hartu behar ditugu kontuan. Ondo asmatutako AI Etika egiaztatzaile bikoitza erabiltzeak materialki lagun dezake IA giza balioekin lerrokatzen. Era berean, ongi diseinatutako AI Legal-zuzentzaile bikoitza erabiltzeak nabarmen lagun dezake IA giza balioekin lerrokatzen.

Beraz, AI arduratsua, AI fidagarria, AI arduratsua, AI lerrokatzea eta abar lortzeko bide erabakigarri eta oraindik ezaguna ez den batek AI egiaztatzaile bikoitzak erabiltzea suposatuko luke, hala nola AI Etika egiaztatzaile bikoitz bat eta bat. AI Legezko egiaztatzaile bikoitza, barruan txertatuta dauden AIaren egiaztapen bikoitz gisa funtzionatuko luke.

Hemengo eztabaida honetan, AI-n txerta daitezkeen AI Legal bikoitzaren egiaztatzaileen izaerari eta eraikuntzari buruzko xehetasun pixka bat gehiago sartu nahiko nuke. Horretarako, lagungarria izan daiteke zurekin gai orokorrari buruzko aurrekari gehigarri batzuk partekatzea AI eta Zuzenbidea.

AI eta legea elkarren artean nola nahasten diren aztertzeko zentzurik gabe, ikus nire eztabaida helbidean esteka hemen. Nire begirada zorrotzean AI eta Zuzenbidea akoplatzea, AI eta legea elkarrekin erlazionatzeko bi modu nagusiren ikuskera zuzen hau ematen dut:

  • (1) AIri aplikatutako legea: Gure gizartean Adimen Artifiziala arautzeko edo gobernatzeko aplikatutako legeak formulatzea, ezartzea eta betearaztea.
  • (2) Zuzenbideari aplikatutako AI: Adimen artifizialaren teknologia legean asmatu eta aplikatua, AI-n oinarritutako Arrazoi Legala (AILR) barne, LegalTech goi-mailako teknologiako aplikazioetan barneratua, abokatu-lanak modu autonomoan edo erdi-autonomoan egiteko.

Zerrendatutako lehen ikuspuntua lehendik dauden legeek eta berriek IA nola gobernatuko duten aztertzean datza. Zerrendatutako bigarren ikuspegiak AI legeari aplikatzearekin du zerikusia.

Azken kategoria honek normalean AI-n oinarritutako Arrazoimendu Legala (AILR) erabiltzea dakar abokatuek erabiltzen dituzten lineako hainbat tresnatan. Esaterako, AI Kontratuaren Bizitza Zikloaren Kudeaketa (CLM) pakete baten parte izan liteke, abokatuei laguntzen diena, kontratu berriak idazteko erabilgarria izango den kontratu-hizkuntza identifikatuz edo ezbeharrak edo legezko hutsuneak ahalbidetzen dituzten hizkera legez nahigabea duten kontratuak hauteman ditzakeena. (IAk antzeman ditzakeen "lege usain" izenekoei begiratzeko, ikusi esteka hemen).

Ezinbestean, publiko orokorrak erabiltzeko erabilgarri dagoen eta abokaturik egon behar ez duen legeari aplikatuko diogu AI. Oraintxe bertan, hainbat murrizketaren ondorioz, UPL barne (Zuzenbide Praktikoa Baimendu gabekoa), AIan oinarritutako aholkularitza juridikoko aplikazioak eskuragarri jartzea gai arantzatsua eta polemikoa da, ikusi nire eztabaida hemen esteka hemen.

AI eta Zuzenbideari buruzko sarrera hau ekarri dut legeari aplikatutako AIaren beste erabilera instrumental bat AI Legal egiaztapen bikoitzak sortzea litzatekeela adierazteko.

Bai, IA legean aplikatzeak dakarren trebetasun teknologiko bera betebehar bikoitz gisa balio dezake AI txertatu edo inplantatutako AI Legal-zuzentzaile bikoitz gisa erabiltzeko. AI Legal egiaztapen bikoitza alderdi juridikoak ezagutu behar dituen osagaia da. Gainontzeko AI aplikazioak hainbat ekintza egiten ari direnean, AI Legal egiaztatzaile bikoitza AI aplikazioak legez eta legezko mugen barruan egiten duen neurtzen ari da.

AI Legal egiaztapen bikoitzeko osagai batek ez du zertan legeari buruz jakin behar den guztia estali behar. AI aplikazioaren izaeraren arabera, AIren helburu eta ekintzei dagokienez, AI Legal egiaztatzaile bikoitza askoz estuagoa izan daiteke daukan espezializazio juridikoari dagokionez.

Esparru erabilgarria identifikatu dut lege-eremuan IA gaitasun autonomo batzuen artean, Levels of Autonomy (LoA) izenez ezagutzen direnak, nola hedatzen den erakusteko. Ikuspegi orokorra lortzeko, ikusi nire Forbes 21ko azaroaren 2022eko zutabearen argitalpena, "Abokatuek AI eta Legeari buruz jakin behar duten arrazoirik gabeko kasu integrala" helbidean esteka hemen, eta deskribapen tekniko zehatza ikusteko, ikusi nire ikerketa sakoneko artikulua MIT Zuzenbide Konputazionalaren Aldizkaria 7eko abenduaren 2021koa, ik esteka hemen.

Esparruak lege-ahaleginetan erabiltzen den IAren bost maila argitzen ditu:

  • 0. maila: Ez dago automatizaziorik AIan oinarritutako legezko lanetarako
  • 1. maila: AI-n oinarritutako lan juridikorako laguntza-automatizazio sinplea
  • 2. maila: laguntza-automatizazio aurreratua AIan oinarritutako legezko lanetarako
  • 3. maila: Automatizazio erdi-autonomoa AIan oinarritutako legezko lanetarako
  • 4. maila: Domeinu autonomoa AIan oinarritutako lan juridikorako
  • 5. maila: guztiz autonomoa AIan oinarritutako lan juridikorako

Hemen laburki deskribatuko ditut.

0 maila automatizaziorik gabeko mailatzat hartzen da. Arrazoimendu juridikoa eta legezko zereginak eskuzko metodoen bidez egiten dira, eta paperean oinarritutako planteamenduen bidez gertatzen dira batez ere.

1. maila AI arrazoibide juridikorako laguntza automatizazio sinplean datza. Kategoria honen adibideak izango lirateke eguneroko testu-prozesamendu informatikoa erabiltzea, ordenagailu bidezko eguneroko kalkulu-orriak erabiltzea, elektronikoki gordetzen eta berreskuratzen diren lineako dokumentu juridikoetarako sarbidea, etab.

2. maila AI arrazoibide juridikorako laguntza-automatizazio aurreratuan datza. Kategoria honen adibideak honako hauek izango lirateke: Hizkuntza Naturalaren Prozesamendu (NLP) oinarrizkoa den kontsulta-estiloaren erabilera, Machine Learning (ML) elementu sinplistak, kasu juridikoen aurreikuspenetarako analisi estatistiko-tresnak, etab.

3. maila automatizazio erdi-autonomoan datza AI arrazoibide juridikorako. Kategoria honen adibideak honako hauek izango lirateke: Arrazoimendu juridikorako Ezagutzan Oinarritutako Sistema aurreratuak (KBS) erabiltzea, Machine Learning eta Deep Learning (ML/DL) erabiltzea arrazoi juridikoetarako, NLP aurreratua eta abar.

4. maila AI arrazoibide juridikorako domeinu-sistema autonomoek osatzen dute. Maila honek Diseinu Operatiboaren Domeinuen (ODD) kontzeptua berrerabiltzen du, auto gidatzeko autoetarako erabiltzen den moduan, baina lege-eremuan aplikatuta. Domeinu juridikoak arlo funtzionalen arabera sailka daitezke, hala nola, familia-zuzenbidea, higiezinen zuzenbidea, porrot-legea, ingurumen-zuzenbidea, zerga-zuzenbidea, etab.

5. maila ordenagailu bidezko sistema guztiz autonomoek osatzen dute AI arrazoibide juridikorako. Zentzu batean, 5. maila 4. mailaren gain-multzoa da domeinu juridiko posible guztiak barne hartzen dituen aldetik. Mesedez, konturatu hau nahiko lan handia dela.

Autonomia-maila hauek antzeko erabileren parean pentsa ditzakezu auto gidatzen diren autoak eta ibilgailu autonomoak eztabaidatzean (SAE arau ofizialean ere oinarrituta, ikus nire estaldura helbidean). esteka hemen). Oraindik ez dugu SAE 5. mailako auto autonomorik. SAE 4. mailako auto autonomoetara sartzen ari gara. Auto konbentzional gehienak SAE 2. mailan daude, eta auto berri batzuk SAE 3. mailan sartzen ari diren bitartean.

Domeinu juridikoan, oraindik ez dugu 5. maila AILR. 4. maila batzuk ukitzen ari gara, nahiz eta ODD oso estuetan. 3. maila argia ikusten hasi da, eta gaur AILRren oinarri nagusia 2. mailan dago batez ere.

AI legeari aplikatutako azken ikerketa-artikulu batek izenez ezagutzen den tipifikazioa planteatu du Legeak Kodearen berri ematen du. Hauxe dio ikertzaileak: “Erren helburu nagusietako bat Legeak Kodearen berri ematen du agenda da AI legearen espiritua jarraitzen irakastea” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Ipar-mendebaldeko Teknologia eta Jabetza Intelektualaren Aldizkaria, 20. liburukia, aterako da). Ezinbesteko gogoeta batzuk daude Legeak Kodearen berri ematen du mantra ekartzen du eta giltzarrietako manu horietako hainbatetan ibiliko zaitut.

Gaian murgildu aurretik, lehenik eta behin AIri eta bereziki AI Etikari eta AI Zuzenbideari buruzko oinarrizko oinarri batzuk ezarri nahiko nituzke, eztabaida testuinguruan zentzuzkoa izango dela ziurtatzeko.

AI etikoaren eta baita AI Legearen kontzientziaren gorakada

AIaren azken aroa hasieran bezala ikusi zen AI For Good, hau da, AI erabil genezake gizateriaren hobekuntzarako. takoen gainean AI For Good gu ere murgilduta gaudela konturatu zen AI For Bad. Horrek barne hartzen du diskriminatzailea izan dadin asmatu edo auto-aldatutako IA eta aukeraketa konputazionalak egiten dituen alborapen desegokiekin. Batzuetan, IA horrela eraikitzen da, eta beste batzuetan, berriz, lurralde okerra sartzen da.

Egungo AIaren izaerari buruz orrialde berean gaudela ziurtatu nahi dut.

Gaur egun ez dago sentikorra den AIrik. Ez dugu hau. Ez dakigu AI sentikorra posible izango den. Inork ezin du ongi iragar AI sentikorra lortuko dugun ala ez, ezta AI sentikorra nolabait miragarriki berez sortuko den supernoba kognitibo konputazional baten moduan (normalean berezitasuna deitzen dena, ikus nire estaldura hemen. esteka hemen).

Zentratzen ari naizen AI mota gaur egun daukagun AI ez sentikorra da. AI sentikorrari buruz modu basatian espekulatu nahi bagenu, eztabaida hau zeharo beste norabide batean joan liteke. AI sentikor bat giza kalitatekoa izango litzateke. Kontuan izan beharko zenuke AI sentikorra gizakiaren baliokide kognitiboa dela. Are gehiago, batzuek IA super-adimentsua izan genezakeela espekulatzen dutenez, pentsa daiteke AI hori gizakiak baino adimentsuagoa izan daitekeela (AI super-adimentsua aukera gisa aztertzeko, ikus estaldura hemen).

Biziki iradokitzen nuke gauzak lurrean mantentzea eta gaur egungo IA konputazionala sentikorra izatea.

Konturatu gaur egungo IA ez dela gai giza pentsamenduaren parean "pentsatzeko". Alexa edo Sirirekin elkarreragiten duzunean, elkarrizketa gaitasunak giza gaitasunen antzekoak dirudite, baina errealitatea da konputazionala dela eta giza ezagutza falta dela. AIaren azken aroak asko erabili ditu Machine Learning (ML) eta Deep Learning (DL), zeinak konputazio-ereduen parekatzea baliatzen baitute. Horrek gizakiaren antzeko joerak dituzten AI sistemak ekarri ditu. Bien bitartean, gaur egun ez dago zentzu arruntaren itxura duen AIrik eta giza pentsamendu sendoaren harridura kognitiborik ere ez duenik.

Kontuz ibili gaur egungo IA antropomorfizatzearekin.

ML/DL eredu konputazionalaren parekatze modu bat da. Ohiko planteamendua erabakiak hartzeko zeregin bati buruzko datuak biltzea da. Datuak ML/DL ordenagailu ereduetara elikatzen dituzu. Eredu horiek eredu matematikoak aurkitu nahi dituzte. Eredu horiek aurkitu ondoren, aurkituz gero, AI sistemak eredu horiek erabiliko ditu datu berriak topatzerakoan. Datu berriak aurkeztean, datu "zahar" edo historikoetan oinarritutako ereduak aplikatzen dira egungo erabakia emateko.

Uste dut hau nora doan asma dezakezula. Erabakien eredua hartzen ari diren gizakiek alborapen txarrak sartu badituzte, litekeena da datuek modu sotil baina esanguratsuan islatzea. Machine Learning edo Deep Learning konputazio-ereduen parekatzea besterik ez da saiatuko datuak matematikoki imitatzen. Ez dago zentzu arruntaren edo beste alderdi sentikorren itxurarik AI-n landutako modelizazioaren berez.

Gainera, AI garatzaileak agian ez dira konturatzen zer gertatzen ari den. ML/DL-ko matematika arkanoak zaildu liteke orain ezkutuko alborapenak atzematea. Ziurrenik espero eta espero zenuke AI garatzaileek lurperatuta egon daitezkeen alborapenak probatuko dituztela, nahiz eta badirudi baino zailagoa den. Aukera sendoa dago, nahiz eta proba nahiko zabalak izan, ML/DL ereduen bat-etortze ereduetan alborapenak egongo direla oraindik.

Garbage-in garba-out-en esaera ospetsua edo gaiztoa zertxobait erabil dezakezu. Kontua da, hau AIaren barnean murgiltzen diren alborapenak maltzurki sartzen diren alborapenen antzekoagoa da. AIren algoritmoen erabakiak hartzea (ADM) axiomatikoki desberdintasunez kargatzen da.

Ez da ona.

Honek guztiak AI Etikaren inplikazio nabarmenak ditu eta AI legeztatzea saiatzean ikasitako ikasgaietarako leiho erabilgarri bat eskaintzen du (ikasgai guztiak gertatu aurretik ere).

Orokorrean AI Etika manuak erabiltzeaz gain, dagokio galdera bat dago AIaren hainbat erabilera arautzeko legeak izan behar ote ditugun. Lege berriak zabaltzen ari dira federal, estatu eta tokiko mailan, AI nola sortu behar den sorta eta izaerari buruzkoak. Horrelako legeak egiteko eta indarrean jartzeko ahalegina pixkanaka da. AI Etikak geldiune gisa balio du, gutxienez, eta ia ziur aski neurri batean zuzenean sartuko da lege berri horietan.

Kontuan izan batzuek irmo esaten dutela ez dugula IA estaltzen duten lege berririk behar eta gure lehendik dauden legeak nahikoak direla. Aurrez ohartarazten dute AIren lege horietako batzuk ezartzen baditugu, urrezko antzara hilko dugula gizartearen abantaila izugarriak eskaintzen dituzten AIren aurrerapenei eutsiz.

Aurreko zutabeetan, AI arautzen duten legeak landu eta abian jartzeko nazioko eta nazioarteko hainbat ahalegin azaldu ditut, ikusi esteka hemen, adibidez. Hainbat naziok identifikatu eta onartu dituzten AI Etikaren printzipio eta jarraibide ezberdinak ere aztertu ditut, besteak beste, Nazio Batuen ahalegina, adibidez, ia 200 herrialdek onartutako AIren UNESCOren multzoa, ikusi. esteka hemen.

Hona hemen lehendik gertutik aztertu ditudan AI sistema etikoen irizpide edo ezaugarrien giltzarri lagungarri bat:

  • Transparency
  • Justizia eta zuzentasuna
  • Ez-Malefizia
  • Erantzukizun
  • Pribatutasuna
  • Ongintzaren
  • Askatasuna eta Autonomia
  • Fidatu
  • Iraunkortasun
  • duintasuna
  • Elkartasuna

AI Etika-printzipio horiek AI garatzaileek benetan erabili behar dituzte, AI garapenerako ahaleginak kudeatzen dituztenekin batera, eta baita, azken finean, AI sistemetan mantentzea lantzen eta egiten dutenekin batera.

AIaren garapen eta erabileraren bizitza-ziklo osoan parte hartzen duten eragile guztiak AI Etikoaren ezarritako arauak betetzearen esparruan hartzen dira kontuan. Garrantzi handiko aipamena da hau, ohiko suposizioa delako "kodetzaileak" edo AI programatzen dutenak soilik AI Etika nozioei atxikitzeko menpe daudela. Aurretik hemen azpimarratzen den bezala, herri bat behar da AI asmatzeko eta lantzeko, eta, horretarako, herri osoak AI Etika aginduak ezagutu eta bete behar ditu.

Berriki ere aztertu dut AI Eskubideen Agiria hau da, AEBetako gobernuaren dokumentu ofizialaren izenburu ofiziala "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" izenekoa, Zientzia eta Teknologia Politikarako Bulegoaren (OSTP) urte luzeko ahaleginaren emaitza izan zena. ). OSTP Estatu Batuetako presidenteari eta AEBetako Bulego Exekutiboari garrantzi nazionala duten hainbat teknologia, zientifiko eta ingeniaritza alderdiei buruzko aholkuak emateko balio duen erakunde federal bat da OSTP. Zentzu horretan, esan dezakezu AI Eskubideen Agiri hau AEBetako Etxe Zuriak onartutako eta onartutako dokumentua dela.

AI Eskubideen Agirian, bost giltzarri kategoria daude:

  • Sistema seguru eta eraginkorrak
  • Diskriminazio algoritmikoaren babesak
  • Datuen pribatutasuna
  • Oharra eta azalpena
  • Giza alternatibak, hausnarketa eta atzerapena

Arretaz aztertu ditut manu horiek, ikus esteka hemen.

Orain, AI Etika eta AI Zuzenbidearen inguruko gai hauei buruzko oinarri lagungarriak ezarri ditudanean, prest gaude AI Zuzenbide-zuzentzaile bikoitzaren gai burutsura eta eremura jauzi egiteko. Legeak Kodearen berri ematen du.

AI legezko zuzentzaile bikoitzak IAn txertatuta Giza Balioa Lerrokatzeko

Batzuetan aipatzen dut AI Legal Double-Checkers AI-LDC akronimo baten bidez. Hau bisualki apur bat da akronimoa ezagutzen ez dutenentzat. Hori dela eta, eztabaida honetan ez dut sigla zehatz hau erabiliko, baina jakinarazpen gisa aipatu nahi dizut.

AI Legal egiaztatzaile bikoitzen konplexutasun batzuk argitzeko, jorratu ditzagun puntu nagusi hauek:

  • AI legezko egiaztapen bikoitzak erabiltzea AI giza balioak lerrokatzeko mekanismo gisa
  • AI hedagarriagoak, horrenbestez, AI sendoagoak beharko ditu legezko egiaztapen bikoitzak
  • AI Legezko egiaztapen bikoitzek legea ezartzen dute eta, batez ere, ez dute legerik egiten ari (ustez)
  • Oreka delikatua AI legearen forma juridikoa arauen eta estandarren artean
  • Esnearen froga eskatzea AI legea betetzeko orduan

Espazio-murrizketak direla eta, bost puntu horiek estaliko ditut oraingoz, nahiz eta erlojuan egon nire zutabean estaldura gehiago lortzeko, bizkor eboluzionatzen duten eta aurrera doazen gai hauei buruzko gogoeta gehigarri eta aipagarrienak.

Oraintxe bertan, lotu segurtasun-uhala eta prestatu bidaia bizigarri baterako.

  • AI legezko egiaztapen bikoitzak erabiltzea AI giza balioak lerrokatzeko mekanismo gisa

AIaren eta giza balioen arteko lerrokatze harmoniatsua lortzeko modu ugari daude.

Arestian aipatu bezala, AI Etikaren manuak ekoiztu eta aldarrikatu ditzakegu eta AI garatzaileek eta AI lantzen eta erabiltzen dutenek giltzarri horiek bete ditzaten bila dezakegu. Zoritxarrez, honek bakarrik ez du trikimailua egingo. Ezinbestean mezua jasoko ez duten asmatzaile batzuk dituzu. AI etikoa erakusteko eta agindutako printzipio apur bat saihesten saiatuko diren asmatzaile batzuk dituzu. Eta abar.

AI Etika dakarten "zuzenbide bigunak" planteamenduak erabiltzea ia ezinbestean lotu behar da "lege gogorra" bideekin, hala nola IA sortzen edo erabiltzen duten guztiei seinale gogorra bidaliko dieten lege eta arauak onartzea. Legearen beso luzea zure bila etor liteke AI-a zentzuz aprobetxatzen ez baduzu. Kartzelako ateen hotsak arreta handia lor dezake.

Baina arazo handi bat da batzuetan ukuiluko ateak jada zaldiak ateratzen utzi dituela. Lantzen den AI batek era guztietako legez kanpoko ekintzak sortuko ditu eta horrela jarraituko du harrapatzen ez duten arte, baina baita betearazpen batzuk azkenean legez kanpoko ekintzen jarioa oztopatzeko ere. Horrek guztiak denbora behar du. Bitartean, gizakiak modu batera edo bestera kaltetzen ari dira.

Sarrera honetan AI Legal egiaztapen bikoitza dator.

AI aplikazio batean bizi bada, AI Legal egiaztatzaile bikoitza berehala hauteman dezake AI legea urratzen ari dela dirudienean. AI Legal egiaztatzaile bikoitzak AI-a bere bidean geldiarazi dezake. Edo osagaiak gizakiei ohartarazi diezaieke legez kanpoko jarduerei buruz, eta hori puntualki eginez, gainbegiratzaileak premiazko neurri zuzentzaileak har ditzake. Osagaiak sor lezakeen erregistro formalizatutzat jotzen da, ikuskaritza-pista baten itxura ukigarria eskainiz AIren ekintza kaltegarriak kodetzeko.

Gure legeak agente anitzeko konglomerazio modu bat direla esaten da, non legeak ezinbestean gizarteak gizarte-jokabide egokien eta desegokien iritzi kontrajarriak izan daitezkeenen arteko oreka gisa jarri nahi izan duenaren nahasketa direla. Gure legeetan oinarritutako AI Legal egiaztatzaile bikoitz batek, beraz, nahasketa hori gorpuzten du.

Nabarmentzekoa, hau behin betiko arau juridikoen zerrenda programatzea baino gehiago da. Legeak moldagarriagoak izan ohi dira eta estandar orokorrak lortzeko ahalegina egiten dute, arau mikroskopikorik txikienak zehaztu beharrean. Konplexutasunak ugariak dira.

Lehen adierazitako ikerketa-paperera itzuliz, hona hemen gogoeta hauek nola ikus daitezkeen AI Alignment bilaketari buruz: "Legeak, agente anitzeko lerrokatze-filosofiak, irizpide hauek modu berezian betetzen ditu. Lerrokatzea arazo bat da, ezin dugulako ex ante AI portaera ona guztiz eta frogatuta zuzentzen duten arauak zehaztu. Era berean, kontratu juridiko bateko alderdiek ezin dute beren harremanaren kontingentzia guztiak aurreikusi, eta legegileek ezin dute aurreikusi zein egoeratan aplikatuko diren beren legeak. Horregatik, legearen zati handi bat estandar konstelazio bat da” (ibid).

Legea AI Zuzentzaile bikoitz batean gorpuztea hasiera batean suposatuko zenukeena baino askoz zailagoa da.

AI aurrera doan heinean, horren arabera aprobetxatu beharko ditugu aurrerapen horiek. Bihurtzen da antzararentzat ona dena ganderarentzat ere ona dela. Legean aplikatutako AIan aurrera egiten ari garenok AI-aren gainbehera zabaltzen ari gara eta, zalantzarik gabe, aurrerapen berriak sortzen ari gara, azken finean, AIren aurrerapenera guztiz elika dezaketenak.

  • AI hedagarriagoak, horrenbestez, AI sendoagoak beharko ditu legezko egiaztapen bikoitzak

Katuaren eta saguaren joko batek gai honi aurre egiten dio.

Litekeena da AI gehiago aurreratzen doan heinean, AI Legal bikoitzaren egiaztagiriaren edozein osagai gaiak gero eta zailagoak aurkitzea. Esate baterako, aztertzen ari den AI aplikazio batek AI egiten ari den legez kanpoko ekintzak ezkutatzeko modu super-maltzurrak asmatu berriak izan ditzake. Nahiz eta AI ez den bide okerrik hartzen, AIren konplexutasun orokorra bakarrik oztopo ikaragarria izan liteke AI Legal egiaztatzaile bikoitza ebaluatzea bilatzeko.

Hona hemen hau bereziki esanguratsua nola bihurtzen den.

Demagun AI garatzaile batek edo AI erabiltzen duen enpresaren batek AI oinarritutako aplikazioan txertatuta dagoen AI Legal egiaztatzaile bikoitza dagoela aldarrikatzen duela. Voila, badirudi orain eskuak garbitu dituztela kezka gehiagoz. AI Legal egiaztatzaile bikoitza arduratuko da guztiaz.

Ez da horrela.

Baliteke AI Legal egiaztapen bikoitza nahikoa ez izatea inplikatutako AI aplikazioaren izaeragatik. AI Legal egiaztapen bikoitza zaharkituta geratzeko aukera ere badago, agian AI aplikazioari dagozkion azken legeekin eguneratuta ez egotea. Arrazoi mordoa aurreikus daiteke AI Legal egiaztatzaile bikoitz baten presentzia hutsa zilarrezko bala izango ez dela esateko.

Kontuan izan lehen aipatutako ikerketaren ikuspuntu hauek: "AIren punta-puntakoak aurrera egin ahala, frogatutako lege-ulermen gaitasunen muga iteratiboki altuagoak ezar ditzakegu. Garatzaile batek bere sistemak zereginetarako gaitasun aurreratuak dituela dioen, AIaren ulermen juridiko aurreratua eta arrazoibide juridikoko gaitasunak frogatu beharko lituzke, ia ez baitute zailtasunik gabeko denbora, aurrekari eta jurisdikzioko lege eta araudi mordoa kontuan hartuta. ” (ibid).

  • AI Legezko egiaztapen bikoitzek legea ezartzen dute eta, batez ere, ez dute legerik egiten ari (ustez)

Ziur nago zuetako batzuk harrituta zaudetela AI Legal-eko egiaztapen bikoitz hauek edukitzearen ideiarekin.

Askotan ahoskatzen den kezka da, itxuraz, AIri gure legeak erabaki ditzala utziko diogula. Aupa, pentsatuko duzu automatizazio zatiren batek gizadia gaindituko duela. AI txertatutako legezko egiaztapen bikoitz horiek gure legeen errege lehenetsiak bihurtuko dira. Egiten dutena, agian, legeak dirudiena izango da.

Gizakiak AIren bidez gobernatuko dira.

Eta AI Legal bikoizketa hauek hara eramaten gaituen aldapa irristakorra dira.

Kontraargudio bat da horrelako eztabaida konspirazio teorien gauza dela. Zoragarriki postulatzen ari zara eta zure burua kolokan jartzen ari zara. Errealitatea da AI Legal egiaztatzaile bikoitz hauek ez direla sentigarriak, ez dutela planeta hartuko, eta haien arrisku existentzialari buruz iragartzea zentzugabea eta izugarri gehiegizkoa da.

Azken finean, jarrera lasai eta arrazoituarekin jarraituz, kontuan izan behar dugu AI Legal-zuzengailu bikoitzek legea egoki islatzeko balio dutela eta ez diseinuz eta ez ustekabez haratago doazela, nolabait, erresuma errespetatuan lehenetsiz. legea. Sentientziaren estrapolazioak alde batera utzita, zalantzarik gabe ados gaitezke benetako eta premiazko kezka dagoela AI Legal egiaztatzaile bikoitzak lege jakin baten benetako izaera gaizki irudikatzen amaitzeko.

Era berean, esan dezakezu, beraz, "oker irudikatuta" den lege jakin hori funtsean berritzen ari dela, jada ez baitu behar bezala adierazten benetako legeak nahi zuena. Zintzoki ikus dezakezula hau gogoeta sotila baina adierazgarria den konfiantza dut. Edozein momentutan, AI Legal egiaztatzaileak birtualki lege berriak eginez edo "aluzinatu" esango dugu, AI osagaiak legea jatorriz adierazitako edo AI-n gorpuzten den moduan interpretatzen duen moduan (nire estaldurarako AI izenekoa hallucinations, Ikus esteka hemen).

Kontuz ibili behar da honetan.

Gai honi buruz, aipatutako ikerketa-ikerketak pentsamendu paralelo hau eskaintzen du marra sakratu hori gurutzatzea saihestu nahian: "Ez dugu helburu AIak legeak egiteko, legezko aurrekariak ezartzeko edo legea betearazteko zilegitasuna izatea. Izan ere, horrek gure ikuspegia ahulduko luke (eta ahalegin handia egin beharko genuke hori saihesteko). Aitzitik, Law Informing Coderen helbururik handinahiena da lehendik dauden kontzeptu eta estandar juridikoen orokortzea konputazionalki kodetzea eta txertatzea baliozkotutako IAren errendimenduan” (ibid).

  • Oreka delikatua AI legearen forma juridikoa arauen eta estandarren artean

Legeak nahasiak dira.

Liburuetako edozein legetarako, litekeena da legeak benetako praktikan ezartzen duenari buruzko interpretazio ugari egotea. AI eremuaren hizkeran, legeak semantikoki anbiguoak direla aipatzen dugu. Hori da legeari aplikatutako IA garatzea erronka zirraragarria eta aldi berean kezkagarria izatea. Finantzara bideratutako AI aplikazioetarako ikus dezakezun kopuru zehatzak ez bezala, gure legeak AIan gorpuzteko nahiak anbiguotasun semantikoen tsunami bati aurre egitea dakar.

Nire fundazioko AI Legal Reasoning-en oinarriak (AILR) liburuan, legeak arau mugatu multzo batean kodetze hutsean kodetzeko saiakerek nola ez gintuzten domeinu juridikoan iritsi nahiko genukeen neurrian eztabaidatzen dut (ikus esteka hemen). Gaur egungo AILRk arauen erabileraren eta legeak ordezkatzen dituen estandar orokorrak deitu daitezkeenaren arteko integrazioa jaso behar du.

Oreka garrantzitsu hau modu honetan adieraz daiteke: "Praktikan, lege xedapen gehienak arau hutsaren eta estandar hutsaren arteko espektro batean kokatzen dira, eta teoria juridikoak "arautasuna" eta "estandartasuna" konbinazio egokia kalkulatzen lagun dezake. AI sistemen helburuak zehaztean” (ibid).

  • Esnearen froga eskatzea AI legea betetzeko orduan

Zerbait nahi izatea zerbait izatea baino desberdina da.

Jakinduria hori sortzen da AI Legal egiaztatzaile bikoitzak izan nahiko genituzkeela esatean, behar bezala funtzionatzen dutela eta behar bezala funtzionatzen dutela ziurtatu behar dugula. Kontuan izan honek beste oztopo gogor eta nekagarri bat aurkezten duela. Aurretik AIren egiaztapen eta baliozkotzeen azken aurrerapenak eta erronkak aztertu ditut, ikus esteka hemen.

Ikerketa-dokumentuan adierazi den bezala: "Hutsuneari aurre egiteko, AI ereduak gero eta ahalmen eragileagoetan hedatu aurretik, adibidez, ibilgailu guztiz autonomoak errepide nagusietan, hedatzen duen alderdiak sistemak giza helburuak, politikak eta lege-arauak ulertzen dituela frogatu beharko luke. Balioztatze-prozedura batek AIk kontzeptu juridikoen "esanahia" duen "ulermena" irudika dezake" (ibid).

Ondorioa

AI Legal bikoitzak eraikitzeko eta lantzeko bilaketa noble honetan nirekin bat egitea eskatzen dizut. Jarrera bertutetsu honi arreta eta baliabide gehiago eskaini behar dizkiogu.

Horrek ere betebehar bikoitza eskaintzen du, lehen aipatu bezala, abokatuei laguntzeko eta publiko orokorrak zuzenean erabil dezakeen AI Legal Reasoning (AILR) lortzeko. Izan ere, batzuek gogor esaten dute justiziarako sarbide-sentsazio osoa (A2J) lortzeko bide bideragarri bakarra ahalmen juridikoak biltzen dituen eta denek eskura dezaketen IAren lanketa izango dela.

Azken puntu azkar bat oraingoz.

Orain arteko eztabaidak azpimarratu du AI Legal egiaztapen bikoitza AIan txertatu edo ezarriko litzatekeela. Hau da, hain zuzen, sortzen ari den eremu hau ikertzen eta burutzen ari direnen ardatz nagusia.

Hona hemen hausnartzeko moduko galdera bat.

Jarri zure pentsatzeko txanoa.

Zergatik ez erabili AI Legal egiaztapen bikoitzak software guztietan?

Kontua da AIren legezko egiaztapen bikoitzak soilik erabili beharrean, agian gure ikuspuntua zabaldu beharko genukeela. Software mota guztiak legez okertu daitezke. AI-ak, dudarik gabe, arreta lehoiaren zati bat lortu du, AI erabiltzen ohi diren moduengatik, esate baterako, gizakiak eguneroko bizitzan eragina duten erabaki lazgarriak emateagatik. Hala ere, erraz esan dezakezu AI ez diren sistema asko daudela ere.

Funtsean, ez dugu utzi behar software bati dohain bat izan behar legea saihesteko edo saihesteko.

Gogoratu lehenago ere AI eta legea konbinatzeko bi kategoria aipatu ditudala. Hemen AIaren erabileran zentratu gara legeari aplikatuta. Txanponaren beste aldean legea AIri aplikatzea dago. Demagun legeak ezartzen ditugula AI Legal egiaztatzaile bikoitzak erabiltzea eskatzen dutenak.

Hasiera batean AI sistemetara mugatu daiteke, bereziki arrisku handikotzat jotzen direnetara. Pixkanaka-pixkanaka, AI Legal egiaztatzaile bikoitzeko eskakizun bera AI ez den softwarera ere heda liteke. Berriz ere, doako ibilaldirik ez.

Goiko hausnarketa hori fideatzen duzun bitartean, gauzak girotuko ditut amaierako teaser gisa. AI Legal egiaztapen bikoitzak eskatzen saiatuko bagara, baliteke AI Etika egiaztatzaile bikoitzei buruz ere gauza bera egitea. AI Legal egiaztatzaile bikoitza erabiltzea istorio erdia baino ez da, eta ezin ditugu ahaztu edo ahaztu AI Etikako kezkak ere.

Nire gogoko aipu batekin amaituko dut diskurtso goxo hau. Earl Warrenen hitz jakintsuen arabera, Estatu Batuetako Justizia Nagusia izan zen jurista ospetsuaren arabera: "Bizitza zibilizatuan, legeak etikaren itsaso batean flotatzen du".

Baliteke hoberena AIaren zuzenketa bikoitzak eta AI Etika zuzentzaile bikoitz horiek zorrotz erabiltzea gogotsu erabiltzea, baldin eta gure segurtasuna arriskuan jartzen duten AI garratzetatik sor daitezkeen itsaso astunak eta AI ez diren sistema latzak izan nahi baditugu. .

Gizateriaren salbamendu-txalekoa izan daitezke.

Iturria: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- eta-ai-legea/