AI arduratsuak bultzada nabarmena gozatzen du ACM gizarte profesional gorenek AI Etikaren aldarrikapenaren bidez

Ikusi edo entzun al duzu albistea?

AI Etikako manuen beste multzo bat aldarrikatu berri da.

Txalo zaparradak, mesedez.

Berriz ere, baliteke ez konturatu dira AI Etikaren beste hainbat dekretu orain dela pixka bat inguruan flotatzen ari direlako. Batzuk esaten ari dira AI Etikoen aldarrikapenen itxuraz etenik gabeko iragarpena pixka bat amorragarri bihurtzen ari dela. Zenbat behar ditugu? Inork jarrai dezake horiek guztiak? Zein da onena? Agian gainditzen ari al gara AI Etika printzipioak? Eta abar.

Beno, kasu zehatz honetan, diot bereziki ongietorria eman beharko geniokeela klubeko azken kide honi.

Momentu batean azalduko dut zergatik.

Lehenik eta behin, argitze gisa, gaur egun ofizialki ezagutzen den AI Etika manua aipatzen ari naiz.Sistema algoritmiko arduratsuetarako printzipioei buruzko adierazpena” ACM Technology Policy Council-ek duela gutxi argitaratu zuen 26ko urriaren 2022an. Zorionak dokumentu preziatu hau bildu duten aditu taldeei, besteak beste, Jeanna Matthews (Clarkson Unibertsitatea) eta Ricardo Baeza-Yates (Universitat Pompeu Fabra) egileen artean. ).

Dakizuenok ondo aztertuta, dokumentu hau nahiko ezaguna dela konturatu liteke.

Begi ona!

Azken enkarnazio hau, funtsean, 2017an ACM AEBetako Teknologia Politikarako Batzordeak eta ACM Europako Teknologia Politikarako Batzordeak kaleratutako "Gardentasun Algoritmikoaren eta Erantzukizunari buruzko Adierazpena" bateratuaren aldaera eguneratu eta zabaldua da. Nire zutabeen irakurle fidelek gogoratuko lukete. Noizean behin 2017ko dekretua aipatu dut nire zutabean AI Etikaren eta AI Legearen azpian dauden alderdi gakoen estaldura.

AI Etika eta AI Legearen ebaluazio zabala eta etengabea eta joera-analisiak ikusteko, ikus esteka hemen esteka hemen, Gutxi batzuk aipatzearren.

ACMren azken adierazpen hau oso garrantzitsua da hainbat arrazoirengatik.

Hona hemen zergatik.

ACM, hau da, akronimo erabilgarria da Informatika Makineria Elkartea, informatikan ardaztutako munduko elkarterik handienatzat hartzen da. 110,000 kide inguru biltzen ditu, ACM aspaldiko aitzindaria da informatika arloan. ACM-k informatika arloko ikerketarik gorenetako batzuk ekoizten ditu eta, era berean, sare profesionalak eta erakargarriak eskaintzen ditu informatika-jartzaileei. Hori dela eta, ACM goi-teknologiakoak ordezkatzen dituen ahots garrantzitsua da, eta etengabe ahalegindu da informatika arloan aurrera egiten (ACM 1947an sortu zen).

Ohar pertsonal pixka bat gehituko nuke honi buruz ere. Batxilergoan ordenagailuetan sartu nintzenean, ACM-n sartu nintzen eta haien hezkuntza-programetan parte hartu nuen, batez ere urteroko ordenagailuen programazio lehiaketan lehiatzeko aukera zirraragarrian (halako lehiaketak oso ohikoak dira gaur egun eta normalean bezala etiketatuta daude). hackathons). ACMn parte hartzen jarraitzen dut unibertsitatean nire tokiko unibertsitateko kapituluaren bidez eta lidergoa ikasteko aukera izan dut ikasle kapituluko ofizial bihurtuz. Industrian sartzean, kapitulu profesional batean sartu nintzen eta berriro ere lidergo papera hartu nuen. Geroago, irakasle bihurtu nintzenean, ACMko batzordeetan eta erredakzio kontseiluetan aritu nintzen, campuseko ikasleen kapitulua babestearekin batera. Gaur egun ere, ACMn aktibo nabil, ACM AEBko Teknologia Politika Batzordean parte hartzen duena barne.

ACM bizitza osoko ikaskuntzaren eta karreraren garapenaren ikuspegi maitagarri eta iraunkorra atsegin dut.

Edonola ere, AI Etikaren azken adierazpenari dagokionez, ACMk igorri izanak pisu handia du. Arrazoiz esan dezakezu AI Etikoko manuak mundu osoko informatika profesionalen talde baten osotasuna edo ahots kolektiboa direla. Horrek zerbait esaten du hor.

Gainera, informatika arloko beste batzuk animatuko direla eta entzutera animatuko dira, haien informatikako lankideek adierazpenak deklaratzen dutena behar bezala kontuan hartzeko zentzuan. Beraz, ACMn ez daudenentzat edo talde errespetatuari buruz ezer ez dakitenentzat ere, espero dugu interes handia egongo dela adierazpena zer den ezagutzeko.

Bitartean, daudenak kanpo informatika-eremua adierazpenera erakarri liteke AI etikoari buruz ordenagailuetan ari direnek esaten dutenaren atzean dagoen barneko begirada gisa. Hala ere, azpimarratu nahi dut adierazpena guztientzako pentsatuta dagoela, ez bakarrik informatikako komunitatekoentzat, eta, beraz, gogoan izan AI Etikaren manuak orokorrean daudela, nolabait.

Azkenik, gutxik kontuan hartuko luketen bira gehigarri bat dago.

Batzuetan, kanpotarrek informatika-elkarteak teknologian belaun-sakon daudela hautematen dute, eta ez dute bereziki ezagutzen ordenagailuen eta AIren gizarte-eraginak. Baliteke horrelako entitate profesionalei hardware edo softwareko aurrerapen berrienak eta beroenak bakarrik zaintzen dituztela pentsatzeko tentazioa. Publikoak, besterik gabe, modu zakarrean adierazita, techie nerd gisa hautematen ditu.

Erregistroa zuzentzeko, ordenagailuak lehen aldiz sartu nintzenetik informatikaren eragin sozialetan murgilduta nago eta, era berean, ACM-k ere sakon hartu du horrelako gaietan.

AI Etikaren aginduei buruzko adierazpen hau ACMk bildu eta kaleratu izana harritzen duen edonorentzat, ez diote kasurik egiten gai horiei buruz aspaldiko ikerketa eta lanari. Era berean, interesa dutenei ACMra ondo begiratu dezatela eskatuko nieke Etika Kodea, urteetan zehar eboluzionatu den etika kode profesional zorrotza, eta azpimarratzen du sistemen garatzaileek beren ahaleginen eta salgaien ondorio etikoen berri izan, bete eta adi egon behar dutela.

AI suak pizten ari da informatika-etikari buruz informatuta egotean.

Informatika arloan kontu etiko eta juridikoen ikusgarritasuna izugarri hazi da gaur egungo AIaren sorrerarekin. Lanbidean daudenak AI Etika eta AI Zuzenbidearen gaiei arreta egokia emateaz informatzen ari dira eta zenbaitetan danborrada egiten ari dira. Legegileak gero eta gehiago jabetzen ari dira AI Etika eta AI Legearen alderdiez. Konpainiak asmatu edo erabiltzen ari diren IA onuragarria dela uste dute eta, hala ere, batzuetan arrisku handiak eta balizko desabantailak irekitzen ditu.

Deskonprimitu dezagun azken urteotan gertatzen ari dena, testuinguru egoki bat ezarri ahal izateko AI Etikako aginduen azken multzo honetara salto egin aurretik.

AI etikoen kontzientziaren gorakada

AIaren azken aroa hasieran bezala ikusi zen AI For Good, hau da, AI erabil genezake gizateriaren hobekuntzarako. takoen gainean AI For Good gu ere murgilduta gaudela konturatu zen AI For Bad. Horrek barne hartzen du diskriminatzailea izan dadin asmatu edo auto-aldatutako IA eta aukeraketa konputazionalak egiten dituen alborapen desegokiekin. Batzuetan, IA horrela eraikitzen da, eta beste batzuetan, berriz, lurralde okerra sartzen da.

Egungo AIaren izaerari buruz orrialde berean gaudela ziurtatu nahi dut.

Gaur egun ez dago sentikorra den AIrik. Ez dugu hau. Ez dakigu AI sentikorra posible izango den. Inork ezin du ongi iragar AI sentikorra lortuko dugun ala ez, ezta AI sentikorra nolabait miragarriki berez sortuko den supernoba kognitibo konputazional baten moduan (normalean berezitasuna deitzen dena, ikus nire estaldura hemen. esteka hemen).

Zentratzen ari naizen AI mota gaur egun daukagun AI ez sentikorra da. AI sentikorrari buruz modu basatian espekulatu nahi bagenu, eztabaida hau zeharo beste norabide batean joan liteke. AI sentikor bat giza kalitatekoa izango litzateke. Kontuan izan beharko zenuke AI sentikorra gizakiaren baliokide kognitiboa dela. Are gehiago, batzuek IA super-adimentsua izan genezakeela espekulatzen dutenez, pentsa daiteke AI hori gizakiak baino adimentsuagoa izan daitekeela (AI super-adimentsua aukera gisa aztertzeko, ikus estaldura hemen).

Biziki iradokitzen nuke gauzak lurrean mantentzea eta gaur egungo IA konputazionala sentikorra izatea.

Konturatu gaur egungo IA ez dela gai giza pentsamenduaren parean "pentsatzeko". Alexa edo Sirirekin elkarreragiten duzunean, elkarrizketa gaitasunak giza gaitasunen antzekoak dirudite, baina errealitatea da konputazionala dela eta giza ezagutza falta dela. AIaren azken aroak asko erabili ditu Machine Learning (ML) eta Deep Learning (DL), zeinak konputazio-ereduen parekatzea baliatzen baitute. Horrek gizakiaren antzeko joerak dituzten AI sistemak ekarri ditu. Bien bitartean, gaur egun ez dago zentzu arruntaren itxura duen AIrik eta giza pentsamendu sendoaren harridura kognitiborik ere ez duenik.

Kontuz ibili gaur egungo IA antropomorfizatzearekin.

ML/DL eredu konputazionalaren parekatze modu bat da. Ohiko planteamendua erabakiak hartzeko zeregin bati buruzko datuak biltzea da. Datuak ML/DL ordenagailu ereduetara elikatzen dituzu. Eredu horiek eredu matematikoak aurkitu nahi dituzte. Eredu horiek aurkitu ondoren, aurkituz gero, AI sistemak eredu horiek erabiliko ditu datu berriak topatzerakoan. Datu berriak aurkeztean, datu "zahar" edo historikoetan oinarritutako ereduak aplikatzen dira egungo erabakia emateko.

Uste dut hau nora doan asma dezakezula. Erabakien eredua hartzen ari diren gizakiek alborapen txarrak sartu badituzte, litekeena da datuek modu sotil baina esanguratsuan islatzea. Machine Learning edo Deep Learning konputazio-ereduen parekatzea besterik ez da saiatuko datuak matematikoki imitatzen. Ez dago zentzu arruntaren edo beste alderdi sentikorren itxurarik AI-n landutako modelizazioaren berez.

Gainera, AI garatzaileak agian ez dira konturatzen zer gertatzen ari den. ML/DL-ko matematika arkanoak zaildu liteke orain ezkutuko alborapenak atzematea. Ziurrenik espero eta espero zenuke AI garatzaileek lurperatuta egon daitezkeen alborapenak probatuko dituztela, nahiz eta badirudi baino zailagoa den. Aukera sendoa dago, nahiz eta proba nahiko zabalak izan, ML/DL ereduen bat-etortze ereduetan alborapenak egongo direla oraindik.

Garbage-in garba-out-en esaera ospetsua edo gaiztoa zertxobait erabil dezakezu. Kontua da, hau AIaren barnean murgiltzen diren alborapenak maltzurki sartzen diren alborapenen antzekoagoa da. AIren algoritmoen erabakiak hartzea (ADM) axiomatikoki desberdintasunez kargatzen da.

Ez da ona.

Honek guztiak AI Etikaren inplikazio nabarmenak ditu eta AI legeztatzea saiatzean ikasitako ikasgaietarako leiho erabilgarri bat eskaintzen du (ikasgai guztiak gertatu aurretik ere).

Orokorrean AI Etika manuak erabiltzeaz gain, dagokio galdera bat dago AIaren hainbat erabilera arautzeko legeak izan behar ote ditugun. Lege berriak zabaltzen ari dira federal, estatu eta tokiko mailan, AI nola sortu behar den sorta eta izaerari buruzkoak. Horrelako legeak egiteko eta indarrean jartzeko ahalegina pixkanaka da. AI Etikak geldiune gisa balio du, gutxienez, eta ia ziur aski neurri batean zuzenean sartuko da lege berri horietan.

Kontuan izan batzuek irmo esaten dutela ez dugula IA estaltzen duten lege berririk behar eta gure lehendik dauden legeak nahikoak direla. Aurrez ohartarazten dute AIren lege horietako batzuk ezartzen baditugu, urrezko antzara hilko dugula gizartearen abantaila izugarriak eskaintzen dituzten AIren aurrerapenei eutsiz.

Aurreko zutabeetan, AI arautzen duten legeak landu eta abian jartzeko nazioko eta nazioarteko hainbat ahalegin azaldu ditut, ikusi esteka hemen, adibidez. Hainbat naziok identifikatu eta onartu dituzten AI Etikaren printzipio eta jarraibide ezberdinak ere aztertu ditut, besteak beste, Nazio Batuen ahalegina, adibidez, ia 200 herrialdek onartutako AIren UNESCOren multzoa, ikusi. esteka hemen.

Hona hemen lehendik gertutik aztertu ditudan AI sistema etikoen irizpide edo ezaugarrien giltzarri lagungarri bat:

  • Transparency
  • Justizia eta zuzentasuna
  • Ez-Malefizia
  • Erantzukizun
  • Pribatutasuna
  • Ongintzaren
  • Askatasuna eta Autonomia
  • Fidatu
  • Iraunkortasun
  • duintasuna
  • Elkartasuna

AI Etika-printzipio horiek AI garatzaileek benetan erabili behar dituzte, AI garapenerako ahaleginak kudeatzen dituztenekin batera, eta baita, azken finean, AI sistemetan mantentzea lantzen eta egiten dutenekin batera.

AIaren garapen eta erabileraren bizitza-ziklo osoan parte hartzen duten eragile guztiak AI Etikoaren ezarritako arauak betetzearen esparruan hartzen dira kontuan. Garrantzi handiko aipamena da hau, ohiko suposizioa delako "kodetzaileak" edo AI programatzen dutenek AI Etika nozioei atxikitzeko menpe daudela. Aurretik hemen azpimarratzen den bezala, herri bat behar da AI asmatzeko eta lantzeko, eta, horretarako, herri osoak AI Etika aginduak ezagutu eta bete behar ditu.

Berriki ere aztertu dut AI Eskubideen Agiria hau da, AEBetako gobernuaren dokumentu ofizialaren izenburu ofiziala "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" izenekoa, Zientzia eta Teknologia Politikarako Bulegoaren (OSTP) urte luzeko ahaleginaren emaitza izan zena. ). OSTP Estatu Batuetako presidenteari eta AEBetako Bulego Exekutiboari garrantzi nazionala duten hainbat teknologia, zientifiko eta ingeniaritza alderdiei buruzko aholkuak emateko balio duen erakunde federal bat da OSTP. Zentzu horretan, esan dezakezu AI Eskubideen Agiri hau AEBetako Etxe Zuriak onartutako eta onartutako dokumentua dela.

AI Eskubideen Agirian, bost giltzarri kategoria daude:

  • Sistema seguru eta eraginkorrak
  • Diskriminazio algoritmikoaren babesak
  • Datuen pribatutasuna
  • Oharra eta azalpena
  • Giza alternatibak, hausnarketa eta atzerapena

Arretaz aztertu ditut manu horiek, ikus esteka hemen.

AI Etika eta AI Zuzenbideari lotutako gai hauei buruzko oinarri lagungarriak jarri ditudanean, duela gutxi kaleratu den ACMra jauzi egiteko prest gaude (bide batez, dokumentuaren izenburuak aipatzen duen ACMra jauzi egiteko. arduratsua sistema algoritmikoak, baliteke nire ebaluazioari begirada bat ematea zertaz hitz egitea esan nahi duenari buruz AI fidagarria, Ikus esteka hemen).

Presta zaitez AI Etika-printzipioen azken multzo honetarako bidaiarako.

ACM deklaratutako AIren etika manuak gogor murgiltzea

AI etikoari buruzko ACM adierazpenak bederatzi giltzarri hauek ditu:

  • Zilegitasuna eta gaitasuna
  • Kalteak gutxitzea
  • Segurtasuna eta pribatutasuna
  • Transparency
  • Interpretagarritasuna eta azalgarritasuna
  • Mantentzeko modua
  • Lehiakortasuna eta ikuskagarritasuna
  • Erantzukizuna eta erantzukizuna
  • Ingurumen-inpaktuak mugatzea

Azken multzo hau eskuragarri dauden beste multzo batzuekin alderatzen baduzu, antzekotasun edo korrespondentzia pareko handia dago haien artean.

Alde batetik, hori seinale ontzat har dezakezu.

Oro har, espero genezake inguruan dabiltzan AI Etika-printzipio ugari guztiak estaldura orokor bererantz bat egitea. Multzo bat beste multzo batekin zertxobait konparagarria dela ikusteak ziurtasun itxura ematen dizu multzo horiek pilotaleku berean daudela eta ez nolabait ezkerreko zelai harrigarri batean kanpo daudela.

Batzuen kexa potentzial bat multzo ezberdin hauek gutxi gorabehera berdinak direla dirudi, eta horrek nahasmena edo, gutxienez, harridura sortzen du, itxuraz bikoiztutako zerrenda ugari ez eduki beharko genituzkeen kezkagatik. Ezin al dago zerrenda bakarra? Arazoa da, noski, ez dagoela modu errazik zerrenda horiek guztiak uniformeki berdinak izan daitezen. Talde ezberdinek eta entitate ezberdinek modu ezberdinetan jorratu dute horretara. Berri ona da ia denak ondorio orokor berdinera iritsi direla. Lasai gaude multzoek alde handirik ez dutelako, eta horrek agian ezinegona sortuko liguke adostasun orokorrik ez balego.

Kontrako batek zerrenda horien komuntasuna kezkagarria dela esan dezake, agian talde-pentsamendu bat gertatzen ari dela argudiatuz. Beharbada, talde ezberdin horiek guztiak modu berean pentsatzen ari dira eta ezin dira arautik haratago begiratzeko gai. Guztiok tranpa berdin batean erortzen ari gara. Zerrendak itxuraz gure pentsamendua ainguratzen ari dira eta ez gara gai geure sudurretik haratago ikusteko.

Gure sudurretik haratago begiratzea merezi duen arrazoia da, dudarik gabe.

Zalantzarik gabe, irekita nago kontrakoek esaten dutena entzuteko. Batzuetan harrapatzen dute zerbait duen haizea Titanic iceberg erraldoi batera bidean. Arrano-begiko begiratoki batzuk erabil genitzake. Baina, AI Etikaren manu hauei dagokienez, ez da egon kontrakoek behin betiko artikulatu dutenik, gertatzen ari den neurrigabeko komuntasun bati buruzko kezkak nabarmen murrizten edo sortzen dituenik. Ondo gaudela uste dut.

ACM multzo honetan, nire ustez, arreta nabarmena merezi duten puntu bereziki nabarmenak edo nabarmenak daude.

Lehenik eta behin, maila goreneko esaldia gustatzen zait, ohikoa baino zertxobait desberdina dena.

Adibidez, erreferentzia eginez zilegitasuna eta gaitasuna (lehen puntuko elementua) AIarekin lotutako diseinatzaile eta kudeaketa gaitasunen garrantziaren itxura bat dakar. Horrez gain, legitimitate esaldia AI Etikara eramaten gaitu AI Zuzenbidearen eremua. Hau diot, AI Etikaren manuetako asko inplikazio etikoetan ia erabat kontzentratuta daudelako, baina badirudi lege-adarrei ohartzeari uko egiten edo lotsati egiten dutelako. Arlo juridikoan, gogoeta etikoak "lege bigunak" direla esan ohi da, eta liburuetako legeak "lege gogor" gisa interpretatzen dira (esan nahi du auzitegi juridikoen pisua dutela).

Garai guztietako nire esaerarik gogokoenetako bat Earl Warren jurista ospetsuak esan zuen: “Bizitza zibilizatuan, legeak etika itsaso batean flotatzen du”.

Ziurtatu behar dugu AI Etikaren manuek gauzen lege gogorraren alderdia ere hartzen eta azpimarratzen dutela, AI Legeak idaztean, indarrean jarri eta betearaztean.

Bigarrenik, eskertzen dut zerrendak barne hartzen duela eztabaidagarritasuna eta ikuskargarritasuna.

Behin eta berriz idatzi dut AI sistema baten menpe zaudenean lehiatu edo bandera gorria igo ahal izateak duen balioaz, ikusi esteka hemen. Gainera, gero eta gehiago ikusiko ditugu AI sistemak ikuskatzera behartzen dituzten lege berriak, langileak kontratatzeko eta sustapenetarako erabiltzen diren AI sistemen ikuskapenari buruzko New Yorkeko (NYC) legeari buruz luze eztabaidatu dudana. esteka hemen. Zoritxarrez, eta NYCko lege berria argi eta garbi kritikatzen dudan moduan, ikuskagarritasun-lege hauek akatsak badira, ziurrenik ebazten dituzten baino arazo gehiago sortuko dituzte.

Hirugarrenik, pixkanaka-pixkanaka esnatzen ari da IAk jasangarritasun-arazoak barneratu ditzakeela eta pozten naiz ikusteak ingurumen gaiak goi-mailako fakturazioa lortu zuen AI Etikaren manu hauetan (ikusi zerrendako azken buleta).

AI sistema bat sortzeak bakarrik baliabide informatiko asko kontsumitu ditzake. Baliabide informatiko horiek zuzenean edo zeharka jasangarritasunaren usurbildatzaileak izan daitezke. Kontuan izan behar da IA ​​batek ematen dituen onuren aurrean AIarekin batera datozen kostuen aurrean. ACM buletetako azken elementuak AIrekin sortzen diren jasangarritasun eta ingurumen kontuak hartzen ditu kontuan. AIarekin erlazionatutako karbono-aztarnaren gaiei buruzko nire estaldura ikusteko, ikus esteka hemen.

Orain, AI Etikaren aginduen ACM zerrendari zeru-altuera begirada bat eman diogunez, hurrengoan gure behatzak sakonago sartuko ditugu uretan.

Hona hemen goi-mailako AI Etikaren manu bakoitzaren deskribapen ofizialak (adierazpen formaletik aipatuak):

1. "Zilegitasuna eta gaitasuna: Sistema algoritmikoen diseinatzaileek kudeaketarako gaitasuna eta baimen esplizitua izan beharko lukete sistema horiek eraiki eta zabaltzeko. Gainera, aplikazioen domeinuan aditua izan behar dute, sistemaren erabilerarako oinarri zientifiko bat, eta sistemaren eraginpean dauden eragileek sozialki legitimotzat jo behar dute. Ebaluazio juridikoak eta etikoak egin behar dira baieztatzeko sistemek sartutako arriskuak konpontzen diren arazoekiko proportzionalak izango direla, eta onura eta kalteen arteko trukaketa interes-talde garrantzitsu guztiek ulertzen dutela.

2. "Kalteak gutxitzea: Sistema algoritmikoen kudeatzaileek, diseinatzaileek, garatzaileek, erabiltzaileek eta beste interes-taldeek haien diseinuan, inplementazioan eta erabileran dakartzan akats eta alborapen posibleez eta sistema batek pertsonei eta gizarteari eragin diezaiekeen kalte potentzialaz jabetu behar dira. Erakundeek ohiko inpaktuaren ebaluazioak egin behar dituzte erabiltzen dituzten sistemetan, sistemak kalteak sor ditzakeen ala ez zehazteko, eta bereziki kalte diskriminatzaileak, eta arintze egokiak aplikatzeko. Ahal denean, benetako errendimenduaren neurrietatik ikasi beharko lukete, ez bakarrik diskriminatzaileak izan daitezkeen iraganeko erabakien ereduetatik.

3. "Segurtasuna eta pribatutasuna: Alderdi gaiztoen arriskua arin daiteke segurtasun- eta pribatutasun-jardunbide onenak ezarriz sistemen bizi-zikloko fase guztietan, sistema algoritmikoen testuinguruan sortzen diren ahultasun berriak arintzeko kontrol sendoak barne.

4. "Gardentasuna: Sistemaren garatzaileek garatzeko, trebatzeko, baliozkotzeko eta probak egiteko datu-multzo, aldagai eta eredu espezifikoak nola aukeratu ziren argi eta garbi dokumentatzeko, baita datuen eta irteeraren kalitatea bermatzeko erabili ziren neurri zehatzak ere. Sistemek irteera bakoitzean duten konfiantza maila adierazi behar dute eta gizakiek esku hartu behar dute konfiantza baxua denean. Garatzaileek alborapen potentzialak aztertzeko erabili ziren planteamenduak ere dokumentatu beharko lituzkete. Bizitzan eta ongizatean eragin kritikoa duten sistemetarako, egiaztapen- eta baliozkotze-prozedura independenteak behar dira. Datuen eta ereduen azterketa publikoak zuzentzeko aukerarik handiena eskaintzen du. Garatzaileek, beraz, hirugarrenen probak erraztu beharko lituzkete interes publikorako”.

5. "Interpretagarritasuna eta azalgarritasuna: Sistema algoritmikoen kudeatzaileei informazioa ekoizteko gomendatzen zaie, bai algoritmoak erabiltzen dituzten prozedurei (interpretagarritasuna), bai hartzen dituzten erabaki zehatzei (azalgarritasuna). Azalgarritasuna zehaztasuna bezain garrantzitsua izan daiteke, batez ere politika publikoen testuinguruetan edo algoritmoak aintzatespenik gabe talde bati mesede egiteko nola okertu daitezkeen kezka dagoen edozein ingurunetan. Garrantzitsua da azaldutako ondoriora heltzeko erabilitako ebidentzia edo erabakiak hartzeko prozesua islatzen ez duten azalpenak eta ondorengo arrazionalizazioak bereiztea».

6. "Mantengarritasuna: Sistema algoritmiko guztien sendotasunaren frogak beren bizitza-zikloan zehar bildu behar dira, sistemaren eskakizunen dokumentazioa barne, aldaketen diseinua edo ezarpena, proba kasuak eta emaitzak eta aurkitutako eta konpondutako akatsen erregistroa. Mantentze-lan egokiak prestakuntza-datu berriekin birziklatzeko sistemak eta/edo erabilitako ereduak ordezkatzea eska dezake".

7. "Lehiakortasuna eta ikuskagarritasuna: Erregulatzaileek sustatu behar dute gizabanakoek eta taldeek emaitzak zalantzan jar ditzaten eta algoritmikoki informatutako erabakietatik eratorritako ondorio kaltegarrien konponketa bilatzeko mekanismoak hartzea. Kudeatzaileek ziurtatu behar dute datuak, ereduak, algoritmoak eta erabakiak erregistratzen direla, kalteak susmatzen edo ustezko kasuetan ikuskatu ahal izateko eta emaitzak errepikatu ahal izateko. Ikuskaritza-estrategiak publiko egin behar dira, pertsonei, interes publikoko erakundeei eta ikertzaileei hobekuntzak berrikusi eta gomendatzeko».

8. "Erantzukizuna eta erantzukizuna: Erabiltzen dituzten algoritmoek hartutako erabakien erantzule izan behar dute erakunde publiko eta pribatuek, nahiz eta bideragarria ez den zehatz-mehatz azaltzea algoritmo horiek nola eman zituzten emaitzak. Organo horiek sistema osoen ardura izan beharko lukete beren testuinguru espezifikoetan hedatzen diren heinean, ez soilik sistema jakin bat osatzen duten zati indibidualez. Sistema automatizatuetan arazoak antzematen direnean, sistema horiek zabaltzeaz arduratzen diren erakundeek arazoa konpontzeko egingo dituzten ekintza zehatzak dokumentatu beharko dituzte eta teknologia horien erabilera zein egoeratan eten edo amaitu behar den”.

9. "Ingurumen-inpaktuak mugatzea: Sistema algoritmikoak diseinatu behar dira ingurumen-inpaktuen estimazioen berri emateko, prestakuntzaren nahiz kalkulu operatiboen karbono-isuriak barne. AI sistemak diseinatu behar dira beren karbono isuriak arrazoizkoak direla bermatzeko, hedatzen diren testuinguruak eskatzen duen zehaztasun-maila kontuan hartuta".

Ziur nago AI Etikaren agindu erabakigarri horietako bakoitzari arretaz eta antzinako irakurketa bat emango diozula. Mesedez, hartu itzazu bihotzean.

Ondorioa

Uste dut askok oharkabean ahaztu dezaketela ACMren adierazpenaren zati sotila baina erabakigarria. Ziurtatu hau zure arreta erakartzen dudala.

AI Etikaren manuekin lotutako konpromezuak neurtu behar izatearen enigma mingarriari buruz hitz egiten duen zati bati egiten diot erreferentzia. Ikusten duzu, jende gehienek burugabeko keinu asko egiten dute AI Etikoko printzipioak irakurtzean eta bere gain hartzen dute manu guztiek pisu berdina dutela, eta manu guztiei beti deferentzia eta balio itxura optimo berdina emango zaie.

Ez mundu errealean.

Kautxuak errepidea topo egiten duenean, konplexutasun txikia duen edozein AI motak gaizto probatuko ditu AI Etikaren manuak elementu batzuk beste printzipio batzuen gainetik nahikoa lor daitezkeela. Konturatzen naiz ozenki oihuka ari zarela AI guztiak AI Etikaren agindu guztietan maximizatu behar dituela, baina hau ez da bereziki errealista. Hartu nahi duzun postua hori bada, ausartzen naiz esaten AI-ren sortzaile eta erabiltzaile gehienei edo ia guztiei esan beharko diezuela denda ixteko eta AI-a guztiz uzteko.

Konpromisoak hartu behar dira AI atetik ateratzeko. Hori esanda, ez dut AI Etikaren manuak urratzen dituzten bazterrak moztearen alde egiten, ezta AI Legeak urratu behar dituztenik ere. Gutxieneko jakin bat bete behar da, eta horren gainetik gehiago ahalegintzea da helburua. Azkenean, oreka bat arretaz epaitu behar da. Orekatze-ekintza hau kontu handiz, esplizituki, legez egin behar da, eta AI Etika sinesmen on eta zintzo gisa hartuta (ikusi nahiko zenuke enpresek nola erabiltzen dituzten AI Etika Batzordeak ikuspegi solemne hau lortzen saiatzeko, ikusi esteka hemen).

Hona hemen ACM deklarazioak trukeen konplexutasunari buruz aipatzen dituen puntu batzuk (dokumentu formaletik aipatuak):

  • "Konponbideek konpontzen den arazoarekiko proportzionalak izan behar dute, nahiz eta horrek konplexutasunari edo kostuari eragiten dion (adibidez, bideo-zaintza publikoa erabiltzeari uko egitea aurreikuspen-zeregin sinple baterako)."
  • "Errendimendu-neurri ugari kontuan hartu behar dira eta aplikazio-domeinuaren arabera modu ezberdinean haztatu daitezke. Adibidez, osasun-aplikazio batzuetan negatibo faltsuen ondorioak positibo faltsuak baino askoz okerragoak izan daitezke, eta justizia penalean, aldiz, positibo faltsuen ondorioak (adibidez, pertsona errugabe bat espetxeratzea) negatibo faltsuak baino askoz okerragoak izan daitezke. Sistema operatiboen konfigurazio desiragarriena oso gutxitan izaten da zehaztasun handiena duena.
  • "Pribatutasunari buruzko kezkak, sekretu komertzialak babesteak edo aktore gaiztoek sisteman jolasteko aukera izan dezaketen analitiken errebelazioa justifikatu dezakete pertsona kualifikatuentzako sarbidea murriztea, baina ez dira erabili behar hirugarrenen azterketa mugatzea justifikatzeko edo garatzaileak betebeharra salbuesteko. akatsak aitortu eta konpontzeko».
  • "Gardentasuna sistema algoritmiko batek eragindako interes-taldeek egindako kalteen konponketa esanguratsuak bilatzea ahalbidetzen duten erantzukizunerako prozesuekin lotu behar da. Gardentasuna ez da erabili behar sistema bat legitimatzeko edo erantzukizuna beste alderdi batzuei transferitzeko».
  • “Sistema baten eragina handia denean, sistema azalgarriagoa hobe daiteke. Kasu askotan, ez dago azalpenaren eta zehaztasunaren arteko trukerik. Zenbait testuingurutan, ordea, azalpen okerrak azalpenik eza baino are okerragoak izan daitezke (adibidez, osasun-sistemetan, sintoma bat gaixotasun posible askori dagokio, ez bakarrari).

AI garatzen edo erabiltzen ari direnek agian ez dituzte ohartzen aurrean dituzten konpromezuez. Enpresa bateko buruzagi nagusiek inozoki pentsa dezakete AI-ak AI Etika-printzipio guztien maximoak betetzen dituela. Hori sinesten dute AIri buruz ez dakitelako, edo hori sinetsi nahi dute eta agian keinu-keinu bat egiten ari dira AI erraz hartzeko.

Litekeena da konpromezuei modu nabarmen eta irekian aurre egin ezean kaltea sortuko duen AI batekin amaitzea. Kalte horiek, aldi berean, litekeena da enpresa bat eskala handiko pasiboetara irekitzea. Horrez gain, lege konbentzionalak izan daitezke AIarekin lotutako ekintza kriminal posibleetarako, AI-n oinarritutako lege berrienekin batera. Tona bat adreilu itxaroten ari dira truke-konpromisoei aurre egiteko modua egin dezaketela uste dutenen edo trukeak existitzen direnik ez dakitenen buruen gainetik (konturatze birringarria ezinbestean eroriko zaie).

Oraingoz, azken hitza emango diot gai honi buruz ACM adierazpenaren amaierako alderdiari, uste baitut lan sendoa egiten duela AI Etikoko manu hauek makroskopikoki atera nahi dutena azaltzeko:

  • “Aurreko gomendioek sistema algoritmikoen diseinu, garapen eta erabilera arduratsuan oinarritzen dira; erantzukizuna legeak eta politika publikoak zehaztu behar du. Sistema algoritmikoen ahalmen gero eta handiagoak eta bizitzarako kritiko eta ondoriozko aplikazioetan erabiltzeak esan nahi du kontu handiz ibili behar dela haiek erabiltzean. Bederatzi printzipio instrumental hauek eztabaidak abiarazteko, ikerketak abiarazteko eta erabiltzaile askori onurak ekar diezazkioten gobernantza metodoak garatzeko inspirazioa izan nahi dute, fidagarritasuna, segurtasuna eta erantzukizuna sustatzen dituzten bitartean. Azkenean, sistema algoritmiko baten diseinu eta erabilera zuzena definitzen duen testuinguru espezifikoa da eraginpean dauden eragile guztien ordezkariekin elkarlanean” (dokumentu formaletik aipatua).

Jakinduria hitzek zentzuz esaten diguten bezala, mila kilometroko bidaia bat lehen urrats batekin hasten da.

AI Etika eta AI Legea ezagutzea eskatzen dizut, abian jarriko zaituen lehen urratsa emanez, eta gero ezinbesteko ahalegin hauek aurrera eramaten laguntzeko. Edertasuna da oraindik hastapenetan gaudela AI-ari nola kudeatu eta nola aurre egin aztertzeko, beraz, beheko solairuan sartzen ari zarela eta zure ahaleginek zure etorkizuna eta etorkizuna gure guztiontzat itxuraldatu dezakete.

AI-aren bidaia hasi berri da eta ezinbesteko lehen urratsak martxan daude oraindik.

Iturria: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- lanbide-elkartea-the-acm/