AI Etika Agerpen harrigarria AI toxikoa edo alboragarria izateko trebatzea onuragarria izan daitekeela, auto autonomo gidatuen autoentzat barne.

Hona hemen lehendik entzun duzula ziur nago lerro zahar bat.

Bat behar da bat ezagutzeko.

Agian ez zarete konturatzen hau 1900eko hamarkadaren hasierara iritsi daitekeen esamolde bat dela eta gaizkileei erreferentzia egiterakoan deitzen zen normalean (esamoldearen beste aldaera batzuk urrunago daude, esate baterako, 1600. hamarkadan). Adierazpen hau nola erabil daitekeen adibide bat lapur bat harrapatu nahi baduzu, horretarako lapur bat erabili behar duzula pentsatzea dakar. Honek bat ezagutzeko behar dela baieztapena erakusten du. Pelikula eta telesaio askok jakinduria jakintsu hau baliatu dute, sarritan deskribatzen dute iruzurgilea harrapatzeko bide bideragarri bakarra gaizkilearen atzetik atzemateko bezain ustel bat kontratatzea zekarrela.

Engranajeak aldatuz, batzuek logika bera aprobetxa dezakete norbaitek neurrigabeko alborapenak eta diskriminazio-sinesmenak biltzen dituen ala ez antzemateko modu egokia dela horrelako joerak biltzen dituen norbait aurkitzea. Ustez, dagoeneko aurreikuspenez beteta dagoen pertsona batek errazago sumatuko du beste gizaki hori ere toxikotasunez beteta dagoela. Berriz ere, mantra aitortua dela jakiteko behar da.

Zure hasierako erreakzioa eszeptizismoa eta sinesgaitza izan liteke pertsona alboragarri bat erabiltzearen aukeraren aurrean. Ezin al dugu asmatu norbaitek alborapen txarrak dituen ala ez haiek aztertuz soilik eta izaera bereko beste norbait aurkitzera jo beharrik ez? Arraroa irudituko litzateke nahita alboratuta dagoen norbait deskubritzea toxikoki alboratuta dauden beste batzuk ezagutzeko.

Uste dut, neurri batean, bat ezagutzeko behar duen ustezko estribilloa onartzeko prest zaudenaren araberakoa dela. Kontuan izan horrek ez duela iradokitzen lapur bat harrapatzeko modu bakarrak lapurra esklusiboki eta beti erabiltzea eskatzen duenik. Arrazoizkoa dela esan liteke hori behar bezala kontuan hartu daitekeen bide gehigarri bat besterik ez dela. Agian, batzuetan lapur bat harrapatzeko lapurra erabiltzeko aukera entretenitzeko prest zaude, beste zirkunstantzia batzuek taktika ulergaitza izan dezaketen bitartean.

Erabili tresna egokia ezarpen egokirako, esaten den bezala.

Oinarri horiek zehaztu ditudanean, agian istorio honen zati kezkagarri eta itxuraz hunkigarrira joan gaitezke.

Prest al zaude?

AIren eremua aktiboki jarraitzen du batzuetan norbait ezagutzeko behar duen manu bera, batez ere alboratuta dagoen edo modu diskriminatzailean jokatzen duen IA iragartzen saiatzen den kasuan. Bai, ideia txundigarria da guztiz eta lotsarik gabe alboratzailea eta diskriminatzailea den AI asmatu nahi genuela, toxikotasun itxura bera duten beste AI batzuk ezagutzeko eta deskubritzeko baliabide gisa erabiltzeko. Momentu batean ikusiko duzun bezala, gaiaren azpian AI Etika-arazo kezkagarri ugari daude. AI Etikaren eta AI etikoari buruzko nire estaldura orokorra eta zabala ikusteko, ikus esteka hemen esteka hemen, Gutxi batzuk aipatzearren.

Uste dut AI toxikoaren erabilera hori beste AI toxiko batzuen atzetik jarraitzeko suarekin suaren aurkako kontzepzio esaera gisa adieraz dezakezula (egoera hau irudikatzeko eufemismo eta metafora ilustratzaile ugari dei ditzakegu). Edo, lehen esan dugunez, parsimoniaz aipa genezake bat ezagutzeko behar dela baieztapena.

Kontzeptu orokorra da AI sistema jakin batek metodo konbentzionalak erabiliz neurrigabeko alborapenak dituen ala ez asmatzea baino, beharbada baliabide ez hain konbentzionalak ere enplegatzea bilatu beharko genuke. Horrelako bide ez-konbentzional bat izango litzateke alborapenik txarrenak eta gizartearen onartezina den toxikotasun guztiak dituen IA sortzea eta gero AI hau erabiltzea txarren joera bera duten beste AI batzuk bideratzen laguntzeko.

Hau azkar hausnartzen duzunean, zalantzarik gabe, guztiz zentzuzkoa dela dirudi. Gehieneko toxikoa den IA eraikitzea helburu genezake. Gero, AI toxiko hau toxikotasuna duten beste AI batzuk ateratzeko erabiltzen da. Orduan agerian utzitako AI "txarra"rako, aurre egin diezaiokegu toxikotasuna deseginez, IA erabat baztertuz (ikus AI isurketa edo suntsipenari buruzko nire estaldura hemen esteka hau hemen), edo AI espetxeratzea (ikus AI konfinamenduari buruzko nire estaldura helbidean esteka hau hemen), edo egin beharrekoa iruditzen zaion beste edozer egin.

Kontrako argudio bat da gure buruak aztertu beharko genituzkeela nahita eta borondatez toxikoa eta alborapenez betetako IA asmatzen ari garela. Hau da inoiz kontuan hartu behar dugun azken gauza, gomendatuko lukete batzuek. Zentratu AI osorik ontasunez osatuta. Ez zentratu bidegabeko alborapenen gaiztakeriak eta hondarrak dituen AI asmatzera. Jazarpen horren ideia bera gaitzesgarria iruditzen zaie batzuei.

Bilaketa eztabaidagarri honen inguruan kezka gehiago daude.

Agian AI toxikoa asmatzeko eginkizunak gizartea murrizteko gai den IA landu nahi dutenei indartuko die. Alborapen desegokiak eta desegokiak dituen IA lantzea primeran dagoela esango bagenu bezala da. Ez kezkatu, ez dudarik. Saiatu AI toxikoa zure gogoaren arabera asmatu, mundu osoko AI eraikitzaileei ozen helarazten ari gara. (Kinu-keinu) dena ontasunaren izenean.

Gainera, demagun AI toxiko honek harrapatzen duela. Baliteke AI beste AI eraikitzaile askok erabiltzea eta berrerabiltzea. Azkenean, AI toxikoa AI sistemetan ezkutatzen da. Analogia bat egin liteke ustez zigilatutako laborategi batetik ihes egiten duen gizakia ahultzen duen birus bat asmatzearekin. Dakizuen hurrengoa, zoritxarreko gauza nonahi dago eta geure burua ezabatu egin dugu.

Itxaron segundo bat, kontraargudio horien kontrakoa dio, zoro eta onartzen ez diren suposizio mota guztiekin zoratuta zaude. Hartu arnasa sakon. Lasai zaitez.

Toxikoa den IA modu seguruan egin dezakegu eta mugatuta mantendu. AI toxikoa erabil dezakegu zoritxarrez neurrigabeko joerak dituen AIaren prebalentzia gero eta handiagoa murrizten laguntzeko. Elur-bolaren harridura basati eta funtsgabe horietako beste edozein belauneko erreakzio hutsak dira eta tamalez ergelak eta erabat burugabeak dira. Ez saiatu haurra bainurako urarekin botatzen, ohartarazita zaude.

Pentsa ezazu horrela, defendatzaileek diote. AI toxikoa behar bezala eraikitzea eta erabiltzea ikerketa, ebaluazioa eta detektibe gisa jardutea gizarteko beste AI iraingarri batzuk aurkitzeko modu egokia da eta bere astindua lortu beharko luke. Utzi zure erreakzio erupzioak alde batera. Jaitsi lurrera eta begiratu hau soilki. Gure begia sarian dago, hots, alborapenetan oinarritutako AI sistemen gehiegikeria agerian utzi eta deuseztatzea eta gizarte gisa AI toxikoz gainezka ez gaitezen ziurtatzea.

Aldia. Puntu osoa.

Zenbait giltzarri daude AI toxikoak edo alboratuak helburu onuragarrietarako erabiltzearen nozio honetan sakontzeko, besteak beste:

  • Konfiguratu nahita datu alboratuak eta guztiz toxikoak dituzten datu multzoak, AI trebatzeko zer ez egin behar den eta/edo zer ikusi behar den jakiteko erabil daitezkeenak.
  • Erabili datu-multzo horiek Machine Learning (ML) eta Deep Learning (DL) ereduak alborapenak detektatzeko eta gizartearen toxikotasuna dakarren konputazio-ereduak aztertzeko.
  • Aplikatu toxikotasuna trebatutako ML/DL beste AI batzuei zuzendutako IA potentzialki alboratuta eta toxikoa den jakiteko
  • Jarri toxikotasuna trebatutako ML/DL eskuragarri, AI eraikitzaileei zer ikusi behar duten erakusteko, ereduak erraz ikuskatu ahal izateko, algoritmikoki txertatutako alborapenak nola sortzen diren ikusteko.
  • Adibideratu AI toxikoaren arriskuak AI Etikaren eta AI Etikoaren kontzientziaren parte gisa
  • Bestelakoa

Hainbat bide horien haragian sartu aurretik, ezarri ditzagun oinarrizko datu osagarri batzuk.

Lausoki jabetuko zara gaur egun AIren alorrean eta baita AIren eremutik kanpo ere ahots ozenenetako bat AI Etikoaren itxura handiagoa aldarrikatzean dela. Ikus dezagun zer esan nahi duen AI Etika eta AI etikoa aipatzea. Horretaz gain, Machine Learning eta Deep Learningaz hitz egiten dudanean zer esan nahi dudan aztertuz eszenatokia jar dezakegu.

Komunikabideen arreta handia jaso duen AI Etikaren segmentu edo zati jakin bat alderdikeriak eta desberdintasunak erakusten dituen IAk osatzen dute. Baliteke kontziente izango AIaren azken aroa martxan jarri zenean ilusio handia izan zela batzuek gaur egun deitzen duten hori AI For Good. Zoritxarrez, zirrara isuri horren harira, lekukotzen hasi ginen AI For Bad. Adibidez, AI-n oinarritutako aurpegi-ezagutze-sistemak arraza-alborapenak eta genero-alborapenak dituztela agerian utzi dute, eta horiei buruz hitz egin dudanean. esteka hemen.

Aurkako borroka egiteko ahaleginak AI For Bad aktiboki abian dira. Oihuka gainera legezko gaizki-egiteei eusteko asmoz, AIren etika onartzeko bultzada nabarmena ere badago AIren gaiztakeria zuzentzeko. Ideia da AI etikoaren funtsezko printzipioak onartu eta onartu beharko genituzkeela IA garatzeko eta lantzeko. AI For Bad eta, aldi berean, hoberena iragartzen eta sustatuz AI For Good.

Erlazionatutako ideia batean, AI erabiltzen saiatzearen defendatzailea naiz AIren arazoen konponbidearen zati gisa, suarekin suarekin borrokatzeko pentsamendu modu horretan. Adibidez, AI etikoen osagaiak txerta genitzake AI sistema batean, gainontzeko AIak gauzak nola egiten dituen kontrolatuko duena eta, beraz, denbora errealean edozein diskriminazio-ahaleginak harrapatzeko. Ikusi nire eztabaida hemen. esteka hemen. AI Etika monitore gisa jarduten duen AI sistema bereizi bat ere izan genezake. AI sistemak gainbegiratzaile gisa funtzionatzen du beste AI bat amildegi ez-etikoan sartzen denean jarraitzeko eta detektatzeko (ikusi horrelako gaitasunen azterketa hemen esteka hemen).

Une batean, AI Etikaren azpian dauden printzipio nagusi batzuk partekatuko ditut zurekin. Zerrenda mota asko daude han eta hemen inguruan. Esan liteke oraindik ez dagoela erakargarritasun eta adostasun unibertsalaren zerrenda berezirik. Hori da zorigaiztoko albistea. Berri ona da gutxienez eskuragarri daudela AI Etika zerrendak eta nahiko antzekoak izan ohi direla. Guztiak esanda, horrek iradokitzen du nolabaiteko konbergentzia arrazoitu baten bidez AI Etika zertan datzan komuntasun orokorrerantz aurkitzen ari garela.

Lehenik eta behin, labur ditzagun AI Etikoko manu orokor batzuk AI lantzen, lantzen edo erabiltzen duen edonork ezinbesteko kontua izan behar duena ilustratzeko.

Adibidez, Vatikanoak dioen bezala Erromako AI Etikarako Deia eta sakonki jorratu dudan bezala esteka hemenHauek dira identifikatutako sei oinarrizko AI etika printzipioak:

  • Gardentasuna: Printzipioz, AI sistemek azalgarriak izan behar dute
  • sartzea: Gizaki guztien beharrak kontuan hartu behar dira, guztion onura izan dadin, eta pertsona guztiei eskein diezaieke bere burua adierazteko eta garatzeko baldintza onenak.
  • Erantzukizuna: AIaren erabilera diseinatzen eta zabaltzen dutenek ardura eta gardentasunarekin jarraitu behar dute
  • Inpartzialtasuna: Ez sortu edo ez jokatu joeraren arabera, horrela zuzentasuna eta giza duintasuna bermatuz
  • Fidagarritasuna: AI sistemek modu fidagarrian funtzionatzeko gai izan behar dute
  • Segurtasuna eta pribatutasuna: AI sistemek segurtasunez funtzionatu behar dute eta erabiltzaileen pribatutasuna errespetatu behar dute.

AEBetako Defentsa Sailak (DoD) bere dokumentuan adierazi duenez Adimen artifiziala erabiltzeko printzipio etikoak eta sakonki jorratu dudan bezala esteka hemenHauek dira AIren sei printzipio etiko nagusiak:

  • Arduraduna: DoDko langileek epai eta arreta maila egokiak erabiliko dituzte AI gaitasunen garapenaren, hedapenaren eta erabileraren ardura izaten jarraitzen duten bitartean.
  • Ekitatiboa: Sailak nahita neurriak hartuko ditu AI gaitasunetan nahi gabeko alborapenak minimizatzeko.
  • Trazagarria: Departamentuaren AI gaitasunak garatu eta zabalduko dira, dagokion langileek AI gaitasunei aplikagarri zaizkien teknologia, garapen-prozesu eta metodo operatiboen ulermen egokia izan dezaten, metodologia gardenak eta ikuskagarriak, datu-iturriak eta diseinu-prozedura eta dokumentazioa barne.
  • Seriotasuna: Sailaren AI gaitasunek erabilera esplizituak eta ongi zehaztuak izango dituzte, eta gaitasun horien segurtasuna, segurtasuna eta eraginkortasuna probak eta bermeak izango dira definitutako erabilera horietan bizi-ziklo osoan zehar.
  • Gobernagarria: Sailak AI gaitasunak diseinatu eta diseinatuko ditu aurreikusitako funtzioak betetzeko, nahi gabeko ondorioak detektatzeko eta ekiditeko gaitasuna duen bitartean, eta nahi gabeko portaera erakusten duten sistemak desaktibatzeko edo desaktibatzeko gaitasuna.

AIaren etika-printzipioen analisi kolektibo ezberdinei buruz ere eztabaidatu dut, besteak beste, nazioko eta nazioarteko AI etikako printzipio ugariren funtsa aztertu eta laburtu zuen ikertzaileek asmatutako multzoa aztertu izana "The Global Landscape Of AI Ethics Guidelines" (argitaratutakoa). urtean Nature), eta nire estaldurak hemen aztertzen du esteka hemen, eta horrek giltzarri zerrenda honetara eraman zuen:

  • Transparency
  • Justizia eta zuzentasuna
  • Ez-Malefizia
  • Erantzukizun
  • Pribatutasuna
  • Ongintzaren
  • Askatasuna eta Autonomia
  • Fidatu
  • Iraunkortasun
  • duintasuna
  • Elkartasuna

Zuzenean asmatuko duzun bezala, printzipio horien azpian dauden zehaztasunak zehazten saiatzea oso zaila izan daiteke. Are gehiago, printzipio zabal horiek guztiz ukigarri eta zehatza den zerbait bilakatzeko ahalegina AI sistemak lantzean erabiltzeko moduko intxaur gogorra ere bada. Erraza da, oro har, AI Etikaren manuak zer diren eta orokorrean nola behatu behar diren eskuz astintzea, AI kodeketa askoz ere egoera zailagoa da errepidea betetzen duen benetako goma izan behar izatea.

AI Etika-printzipioak AI garatzaileek erabili behar dituzte, AI garapenerako ahaleginak kudeatzen dituztenekin batera, eta baita, azken finean, AI sistemetan mantentzea lantzen eta egiten dutenekin batera. AIaren garapen eta erabileraren bizitza-ziklo osoan parte hartzen duten eragile guztiak AI Etikoaren ezarritako arauak betetzearen esparruan hartzen dira kontuan. Garrantzi handiko aipamena da hau, ohiko suposizioa delako "kodetzaileak" edo AI programatzen dutenak soilik AI Etika nozioei atxikitzeko menpe daudela. Lehen esan bezala, herri bat behar da AI asmatzeko eta lantzeko, eta, horretarako, herri osoak AI Etika aginduak ezagutu eta bete behar ditu.

Ziurta dezagun, gainera, orrialde berean gaudela gaurko AIaren izaerari buruz.

Gaur egun ez dago sentikorra den AIrik. Ez dugu hau. Ez dakigu AI sentikorra posible izango den. Inork ezin du ongi iragar AI sentikorra lortuko dugun ala ez, ezta AI sentikorra nolabait miragarriki berez sortuko den supernoba kognitibo konputazional baten moduan (normalean berezitasuna deitzen dena, ikus nire estaldura hemen. esteka hemen).

Zentratzen ari naizen AI mota gaur egun daukagun AI ez sentikorra da. Buruz basatian espekulatu nahi bagenu sentikorra AI, eztabaida hau zeharo beste norabide batean joan liteke. AI sentikor bat giza kalitatekoa izango litzateke. Kontuan izan beharko zenuke AI sentikorra gizakiaren baliokide kognitiboa dela. Are gehiago, batzuek IA super-adimentsua izan genezakeela espekulatzen dutenez, pentsa daiteke AI hori gizakiak baino adimentsuagoa izan daitekeela (AI super-adimentsua aukera gisa aztertzeko, ikus estaldura hemen).

Utz ditzagun gauzak lurrean gehiago eta kontuan izan ditzagun gaur egungo AI konputazionala sentikorra.

Konturatu gaur egungo IA ez dela gai giza pentsamenduaren parean "pentsatzeko". Alexa edo Sirirekin elkarreragiten duzunean, elkarrizketa gaitasunak giza gaitasunen antzekoak dirudite, baina errealitatea da konputazionala dela eta giza ezagutza falta dela. AIaren azken aroak asko erabili ditu Machine Learning (ML) eta Deep Learning (DL), zeinak konputazio-ereduen parekatzea baliatzen baitute. Horrek gizakiaren antzeko joerak dituzten AI sistemak ekarri ditu. Bien bitartean, gaur egun ez dago zentzu arruntaren itxura duen AIrik eta giza pentsamendu sendoaren harridura kognitiborik ere ez duenik.

ML/DL eredu konputazionalaren parekatze modu bat da. Ohiko planteamendua erabakiak hartzeko zeregin bati buruzko datuak biltzea da. Datuak ML/DL ordenagailu ereduetara elikatzen dituzu. Eredu horiek eredu matematikoak aurkitu nahi dituzte. Eredu horiek aurkitu ondoren, aurkituz gero, AI sistemak eredu horiek erabiliko ditu datu berriak topatzerakoan. Datu berriak aurkeztean, datu "zahar" edo historikoetan oinarritutako ereduak aplikatzen dira egungo erabakia emateko.

Uste dut hau nora doan asma dezakezula. Erabakien eredua hartzen ari diren gizakiek alborapen txarrak sartu badituzte, litekeena da datuek modu sotil baina esanguratsuan islatzea. Machine Learning edo Deep Learning konputazio-ereduen parekatzea besterik ez da saiatuko datuak matematikoki imitatzen. Ez dago zentzu arruntaren edo beste alderdi sentikorren itxurarik AI-n landutako modelizazioaren berez.

Gainera, AI garatzaileak agian ez dira konturatzen zer gertatzen ari den. ML/DL-ko matematika arkanoak zaildu lezake orain ezkutuko alborapenak atzematea. Ziurrenik espero eta espero zenuke AI garatzaileek lurperatuta egon daitezkeen alborapenak probatuko dituztela, nahiz eta badirudi baino zailagoa den. Aukera sendoa dago, nahiz eta proba nahiko zabalak izan, ML/DL ereduak parekatzeko ereduetan oraindik txertatutako alborapenak egongo direla.

Garbage-in garba-out-en esaera ospetsua edo gaiztoa zertxobait erabil dezakezu. Kontua da, hau AIaren barnean murgiltzen diren alborapenak maltzurki sartzen diren alborapenen antzekoagoa da. AIren algoritmoen erabakiak hartzea (ADM) axiomatikoki desberdintasunez kargatzen da.

Ez da ona.

Zer gehiago egin daiteke honen guztiaren aurrean?

Itzuli gaitezen lehen adierazitako zerrendara nola saiatu AI alborapenei edo AI toxikoei aurre egiten, ez-ohiko samarra den "bat jakitea behar da" ikuspegia erabiliz. Gogoratu zerrendak funtsezko puntu hauek zeudela:

  • Konfiguratu nahita datu alboratuak eta guztiz toxikoak dituzten datu multzoak, AI trebatzeko zer ez egin behar den eta/edo zer ikusi behar den jakiteko erabil daitezkeenak.
  • Erabili datu-multzo horiek Machine Learning (ML) eta Deep Learning (DL) ereduak alborapenak detektatzeko eta gizartearen toxikotasuna dakarren konputazio-ereduak aztertzeko.
  • Aplikatu toxikotasuna trebatutako ML/DL beste AI batzuei zuzendutako IA potentzialki alboratuta eta toxikoa den jakiteko
  • Jarri toxikotasuna trebatutako ML/DL eskuragarri, AI eraikitzaileei zer ikusi behar duten erakusteko, ereduak erraz ikuskatu ahal izateko, algoritmikoki txertatutako alborapenak nola sortzen diren ikusteko.
  • Adibideratu AI toxikoaren arriskuak AI Etikaren eta AI Etikoaren kontzientziaren zati gisa, haurraren arazo-haurren AI ereduen serie txarraren bidez esandakoa.
  • Bestelakoa

Puntu nabarmen horietako lehenengoari hurbiletik begiratuko diogu.

Datu toxikoen datu multzoak konfiguratzea

Gizarte-alborapen desegokiak dituzten datu-multzoak ezartzen saiatzearen adibide argigarri bat WILDS bildumako CivilComments datu-multzoa da.

Lehenik eta behin, aurrekari bizkor batzuk.

WILDS kode irekiko datu-multzo bat da, ML/DL entrenatzeko erabil daitekeena. WILDS-en adierazitako helburu nagusia AI garatzaileek adierazten duten datuetarako sarbidea erraztea da banaketa txandak hainbat arlo zehatzetan. Gaur egun eskuragarri dauden domeinu batzuek animalia espezieak, ehun bizietako tumoreak, gari-buruaren dentsitatea eta une batean deskribatuko ditudan CivilComments bezalako beste domeinu batzuk biltzen dituzte.

Banaketa-txandaketei aurre egitea funtsezkoa da AI ML/DL sistemak behar bezala lantzeko. Hona hemen akordioa. Batzuetan, entrenatzeko erabiltzen dituzun datuak oso desberdinak izaten dira probaren edo "basatian" datuetatik eta, beraz, ustez entrenatu duzun ML/DL mundu erreala nolakoa izango den noraezean dago. AI eraikitzaile adituek beren ML/DL entrenatu beharko lukete banaketa-aldaketa horiei aurre egiteko. Hau aldez aurretik egin behar da eta ez da harritzekoa izan, geroago ML/DL berez berritzea eskatzen duena.

WILDS aurkeztu zuen paperean azaltzen den bezala: "Banaketa txandak - non prestakuntza-banaketa proba-banaketa desberdina den - nabarmen honda dezakete basatian zabaldutako ikaskuntza automatikoaren (ML) sistemen zehaztasuna. Mundu errealeko inplementazioetan nonahi egon arren, banaketa-aldaketa hauek gaur egun ML komunitatean oso erabiliak diren datu-multzoetan ez daude ordezkatuta. Hutsune horri aurre egiteko, WILDS aurkezten dugu, 10 datu-multzoz osatutako erreferente bat, mundu errealeko aplikazioetan modu naturalean sortzen diren banaketa-aldaketak islatzen dituena, hala nola, tumoreak identifikatzeko ospitaleetan zehar egindako aldaketak; faunaren jarraipena egiteko kamera-tranpak zehar; eta denboran eta kokapenan zehar satelite bidezko irudietan eta pobreziaren mapan" (Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani-ren "WILDS: A Benchmark of in-the-Wild Distribution Shifts" izeneko artikuluan , Weihua Hu eta beste batzuk).

WILDS datu-multzo horien kopurua handitzen jarraitzen du eta datu-multzoen izaera, oro har, hobetzen ari da ML/DL prestakuntzarako datuak erabiltzearen balioa areagotzeko.

CivilComments datu-multzoa honela deskribatzen da: “Erabiltzaileek sortutako testuaren berrikuspen automatikoa —adibidez, iruzkin toxikoak detektatzea— tresna garrantzitsua da Interneten idatzitako testuaren bolumen handia moderatzeko. Zoritxarrez, aldez aurretik egindako lanek erakutsi dute toxikotasun-sailkatzaileek prestakuntza-datuetan alborapenak jasotzen dituztela eta toxikotasuna demografia jakin batzuen aipamenarekin lotzen dutela. Korrelazio faltsu mota hauek ereduaren errendimendua nabarmen honda dezakete azpipopulazio jakinetan. Arazo hau CivilComments datu-multzoaren aldaera aldatu baten bidez aztertzen dugu (WILDS webgunean argitaratuta).

Kontuan izan sareko bidalketen ñabardurak.

Zalantzarik gabe, iruzkin toxikoak topatu dituzu ia edozein sare sozial erabiltzen dituzunean. Ia ezinezkoa irudituko litzaizuke magikoki saihestea gaur egun hedatuta dagoela dirudien eduki garratza eta amildegia. Batzuetan, material arrunta sotila da eta agian lerro artean irakurri behar duzu tonu edo esanahi alboragarri edo diskriminatzailearen mamia lortzeko. Beste kasu batzuetan, hitzak guztiz toxikoak dira eta ez duzu mikroskopiorik edo deskodetzaile-eraztun berezirik behar pasarteak zertan datzan jakiteko.

CivilComments eduki toxikoa konputazionalki detekta dezakeen AI ML/DL asmatzen saiatzeko bildutako datu multzo bat da. Hona hemen ahaleginaren azpian dauden ikertzaileek zertan zentratu zuten: "Machine Learning-en nahi gabeko alborapena demografia-talde desberdinen errendimendu-desberdintasun sistemiko gisa ager daiteke, gizartean zuzentasunaren aurrean dauden erronkak areagotuz. Artikulu honetan, nahi gabeko alborapen honen ikuspegi ñabardura ematen duten atalasearen araberako metrika multzo bat aurkezten dugu, sailkatzaile baten puntuazioaren banaketak taldeen artean alda daitezkeen hainbat modu kontuan hartuta. Lineako iruzkinen proba-multzo berri handi bat ere aurkezten dugu, jendetza-iturburuko oharrekin, identitate-erreferentzietarako. Hau erabiltzen dugu gure neurketak nola erabil daitezkeen erakusteko lehendik dauden eredu publikoetan nahi gabeko alborapen berriak eta potentzialki sotilak aurkitzeko" (Daniel Borkanek, Lucas Dixonek, "Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification" izeneko lan batean. Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Gai honi pentsamolde zabala ematen badiozu, galdetzen has zaitezke nola munduan antzeman dezakezun iruzkin toxikoa zein den eta iruzkin toxikoa ez dena. Gizakiak erabat desberdinak izan daitezke esaldi toxikotzat jotzen dutenari dagokionez. Baliteke pertsona bat haserre egotea sare sozialetan argitaratzen den sareko ohar edo iruzkin jakin batekin, eta beste norbait agian ez da batere hunkituko. Iruzkin toxikoaren nozioa guztiz lausoa den manua dela argudiatu ohi da. Artea bezalakoa da, non artea ikuslearen begian bakarrik ulertzen dela esan ohi den, eta, era berean, ohar alboratuak edo toxikoak ikuslearen begietara baino ez direla.

Balderdash, erantzun batzuk. Arrazoizko gogoa duen edonork jakin dezake sareko ohar bat toxikoa den ala ez. Ez duzu kohete-zientzialaria izan behar argitaratutako irain kaustikoren bat alderdikeriaz eta gorrotoz betetzen denean konturatzeko.

Jakina, gizartearen ohiturak aldatzen eta aldatzen dira denbora-tarteetan. Duela denbora gutxi iraingarritzat antzeman ez zena izugarri okertzat jo daiteke gaur. Horretaz gain, orain dela urte esandako gauzak, garai batean neurriz kanpoko alborapen gisa ikusten zirenak, esanahien aldaketen argitan berrinterpretatu litezke. Bien bitartean, beste batzuek baieztatzen dute iruzkin toxikoak beti direla toxikoak, hasiera batean noiz argitaratu zen. Esan daiteke toxikotasuna ez dela erlatiboa, baizik eta erabatekoa dela.

Toxikoa zer den finkatzen saiatzea, hala ere, nahiko enigma zaila izan daiteke. Gai gogaikarri hau bikoiztu dezakegu zein den zein den jakin dezaketen algoritmoak edo IA asmatzen saiatzeko. Gizakiok horrelako ebaluazioak egiteko zailtasunak baditu, ordenagailu bat programatzea litekeena da beste edo gehiago problematikoa, diote batzuek.

Eduki toxikoa duten datu-multzoak ezartzeko hurbilketa bat edukiak baloratzeko edo ebaluatzeko crowdsourcing metodo bat erabiltzea dakar, eta, hortaz, gizakietan oinarritutako bide bat eskaintzea gaizki ikusten dena zehazteko eta datu-multzoaren barruan etiketatzea barne. Orduan, AI ML/DL batek giza ebaluatzaileek adierazitako datuak eta lotutako etiketatzea ikus ditzake. Horrek, aldi berean, azpian dauden eredu matematikoak konputazionalki aurkitzeko baliabide gisa balio dezake. Voila, ML/DLk iruzkin jakin bat toxikoa izango den ala ez aurreikusteko edo konputazionalki ebaluatzeko gai izan daiteke.

Aipatutako dokumentuan ñabardura neurtuei buruz aipatzen den bezala: "Etiketatze honek baloratzaileei iruzkin baten toxikotasuna baloratzeko eskatzen die, 'Oso toxikoa', 'Toxikoa', 'Esateko zaila' eta 'Ez toxikoa' aukeran. Ebaluatzaileei hainbat toxikotasun-motaz ere galdetu zitzaien, nahiz eta etiketa hauek lan honetan analisirako erabili ez. Balorazio-teknika hauek erabiliz, 1.8 milioi iruzkineko datu-multzo bat sortu dugu, lineako iruzkinen foroetatik jasotakoa, toxikotasunaren eta identitatearen etiketak dituena. Iruzkin guztiak toxikotasunagatik etiketatu ziren bitartean, eta 450,000 iruzkinen azpimultzo bat identitateagatik etiketatu zen. Identitateari etiketatutako iruzkin batzuk aurrez hautatu ziren identitate-etiketatzeko aurreko iterazioetatik eraikitako ereduak erabiliz, jendetza ebaluatzaileek identitate-edukia maiz ikusiko zutela ziurtatzeko" (Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman-ek aipatutako paperean).

Eduki toxiko ilustratzailea duten datu multzoak edukitzea helburu duen beste adibide bat AI-n oinarritutako Hizkuntza Naturalaren Prozesamendua (NLP) elkarrizketa-sistema interaktiboak trebatzeko ahaleginak dakar. Seguruenik, Alexa eta Siri bezalako NLP sistemekin elkarreragin izan duzu. Gaur egungo NLPren zailtasun eta muga batzuk estali ditut, Alexak haurrei aholku desegoki eta arriskutsu bat eskaini zionean gertatutako kasu bereziki kezkagarria barne, ikusi esteka hemen.

Berriki egindako ikerketa batek, oro har, EEOC (Equal Employment Opportunities Commission) babestutako ezaugarri demografikoen zerrendan oinarritutako gizarte-alborapenen bederatzi kategoria erabili nahi izan ditu, besteak beste, adina, sexua, nazionalitatea, itxura fisikoa, arraza edo etnia, erlijioa, ezintasun egoera, sexua. orientazioa, eta egoera sozioekonomikoa. Ikertzaileen arabera: "Ondo dokumentatuta dago NLP ereduek alborapen sozialak ikasten dituztela, baina lan gutxi egin da alborapen horiek nola agertzen diren ereduen irteeran aplikatutako zereginetarako, hala nola galdera-erantzunak (QA). Bias Benchmark for QA (BBQ) aurkezten dugu, egileek eraikitako galdera-multzo bat, babestutako klaseetako pertsonen aurkako gizarte-alborapen frogatuak nabarmentzen dituena, AEBetako ingelesez hitz egiten duten testuinguruetarako garrantzitsuak diren bederatzi dimentsio sozialetan («BBQ» izeneko lan batean. : A Hand-Built Benchmark For Question Answering” Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Nahita datu alboratuak eta guztiz toxikoak dituzten datu multzoak konfiguratzea AIaren goranzko joera da eta batez ere AI Etikaren etorrerak eta AI etikoa ekoizteko nahiak pizten du. Datu-multzo horiek Machine Learning (ML) eta Deep Learning (DL) ereduak prestatzeko erabil daitezke alborapenak detektatzeko eta gizartearen toxikotasuna dakarren konputazio-ereduak zehazteko. Aldi berean, ML/DL toxikotasuna trebatutako AI beste AI batzuetara zuzendu daiteke norakoak AI potentzialki alboratuta eta toxikoa den jakiteko.

Gainera, eskuragarri dauden ML/DL sistemak erabil daitezke AI eraikitzaileei zer ikusi behar duten erakusteko, ereduak erraz ikus ditzaten, algoritmikoki txertatutako alborapenak nola sortzen diren ikusteko. Orokorrean, ahalegin hauek AI toxikoaren arriskuak adierazteko gai dira AI Etikaren eta AI Etikoaren kontzientziaren zati gisa.

Eztabaida handi honen une honetan, gai hau erakusteko adibide argigarri gehiago nahi dituzula apustu egingo nuke. Badira nire bihotzetik gertu dagoen adibide multzo berezi eta ezagun bat. Ikusten duzu, AI-n aditua naizen aldetik, adar etiko eta legalak barne, maiz eskatzen didate AI Etikaren dilemak erakusten dituzten adibide errealistak identifikatzea, gaiaren izaera teoriko samarra errazago ulertu ahal izateko. AI etiko istilu hau modu bizian aurkezten duen eremu iradokitzaileenetako bat AI-n oinarritutako benetako auto-gidatuen autoen etorrera da. Gaiari buruzko eztabaida zabalerako erabilpen kasu edo eredu erabilgarri gisa balioko du.

Hona hemen hausnarketa merezi duen galdera aipagarri bat: AIan oinarritutako benetako auto gidatzen diren autoen etorrerak argitzen al du AI toxikoa sortzeko datu multzoak edukitzearen erabilgarritasunari buruz, eta hala bada, zer erakusten du honek?

Utzidazu une bat galdera deskonprimitzeko.

Lehenik eta behin, kontuan izan ez dagoela giza gidaririk benetako auto gidatzen duen auto batean. Gogoan izan norberak gidatzen dituen benetako autoak AI gidatzeko sistema baten bidez gidatzen direla. Ez dago gidari baten beharrik gurpilean, ezta gizaki batek ibilgailua gidatzeko aurreikuspenik ere. Ibilgailu autonomoen (AV) eta batez ere auto gidatzen duten autoen estaldura zabala eta etengabea ikusteko, ikus esteka hemen.

Gehiago argitu nahiko nuke zer esan nahi den benetako auto gidatzen diren autoak aipatzen ditudanean.

Auto gidatzeko autoen mailak ulertzea

Argibide gisa, benetako auto gidatzen diren autoak AIak autoa bere kabuz gidatzen dituenak dira eta gidatzeko zereginean zehar giza laguntzarik ez dagoen.

Gidaririk gabeko ibilgailu hauek 4. maila eta 5. maila hartzen dira (ikus nire azalpena helbidean esteka hau hemen), aldiz, giza gidari batek gidatzeko ahalegina elkarrekin partekatzea eskatzen duen autoa 2. edo 3. mailan hartzen da normalean. Gidatzeko zeregina elkarrekin partekatzen duten autoak erdi-autonomoak direla deskribatzen da, eta normalean hainbat eduki dituzte. ADAS (Advanced Driver-Assistance Systems) deitzen diren gehigarri automatizatuak.

5. mailan oraindik ez dago benetako auto autonomorik, eta oraindik ez dakigu hori lortzerik izango den, ezta zenbat denbora beharko duen bertara iristeko ere.

Bien bitartean, 4. mailako ahaleginak pixkanaka-pixkanaka trakzio pixka bat lortzen saiatzen ari dira bide publikoko entsegu oso estu eta selektiboak jasanez, nahiz eta eztabaida dagoen proba hori berez onartu behar den ala ez (denok gara esperimentu batean hil ala biziko kobaiak). gure autobideetan eta bide-bideetan gertatzen ari dena, batzuek diotenez, ikusi nire estaldura hemen esteka hau hemen).

Auto erdi autonomoak giza gidaria behar dutenez, auto mota horiek ez dira ohiko ibilgailuak gidatzea baino oso desberdinak izango. Beraz, ez dago gai horren inguruko gai asko estaltzeko gai hau (hala ere, ikusiko duzuenez une batez, hurrengo puntuak orokorrean aplikagarriak dira).

Auto erdi autonomoetarako, garrantzitsua da publikoa azkenaldian sortzen ari den alderdi kezkagarri baten aurrean jakitea, hots, 2. mailako edo 3. mailako auto baten gurpilean lokartzen ari diren giza gidariek argitaratzen jarraitzen duten arren. , guztiok saihestu behar dugu gidariak zereginetatik arreta kendu dezakeela auto erdi autonomo bat gidatzen duenean.

Ibilgailuaren gidaritza-ekintzen arduraduna zara, 2. mailara edo 3. mailara zenbat automatizazio bota litekeen kontuan hartu gabe.

Norberak gidatzen dituen autoak eta AI toxikoetatik urrundu

4. eta 5. mailako egiazko autoentzako gidatzeko ibilgailuentzat, ez da gidari lanetan parte hartuko duen gidaririk.

Okupatzaile guztiak bidaiariak izango dira.

AI gidatzen ari da.

Berehala eztabaidatu beharreko alderdi batek dakar gaur egungo AI gidatzeko sistemetan parte hartzen duen AI ez dela sentikorra. Beste modu batera esanda, AI ordenagailuan oinarritutako programazio eta algoritmoen kolektiboa da, eta ziur asko ez da gai gizakiak ahal duen moduan arrazoitzeko.

Zergatik ari da azpimarratzen AI hori sentikorra ez izateari?

Azpimarratu nahi dudalako AI gidatzeko sistemaren papera eztabaidatzerakoan, ez diodala giza ezaugarriak AIri ematen. Jakin ezazu egun antropomorfizatzeko AI joera etengabea eta arriskutsua dagoela. Funtsean, jendeak gizakien antzeko sentikortasuna esleitzen dio gaurko AIri, oraindik AI hori existitzen ez dela ukaezina eta eztabaidaezina izan arren.

Argibide horrekin, AI gidatzeko sistemak berez ez duela nolabait "gidatzearen alderdiak" jakingo pentsa dezakezu. Gidatzea eta horrek dakarren guztia autoa gidatzeko hardwarearen eta softwarearen zati gisa programatu beharko da.

Muga gaitezen gai honen inguruan jokatzera etortzen diren hainbat alderditan.

Lehenik eta behin, garrantzitsua da konturatzea AI auto gidatzen duten auto guztiak ez direla berdinak. Auto-fabrikatzaile eta auto-gidatzeko teknologia-enpresa bakoitzak bere ikuspegia hartzen ari da auto-gidatzeko autoak asmatzeko. Hori dela eta, zaila da AI gidatzeko sistemek egingo edo ez dutenari buruzko adierazpen zabalak egitea.

Gainera, AI gidatzeko sistema batek gauza bereziren bat egiten ez duela adierazten duen bakoitzean, geroago ordenagailua hori egiteko programatzen duten garatzaileek gainditu dezakete. Pausoz pauso, AI gidatzeko sistemak pixkanaka hobetzen eta hedatzen ari dira. Baliteke gaur egun dagoen mugarik ez egotea etorkizuneko sistemaren iterazio edo bertsio batean.

Espero dut horrek kontatuko dudanaren azpian jartzeko oharra nahikoa ematea.

Ibilgailu autonomoen eta auto gidatzen duten autoen agerpenari aurre egingo dioten ahalmen ugari eta noizbait gauzatuko dira AI-n infusioko alborapenak, ikusi adibidez nire eztabaida honetan. esteka hemen esteka hemen. Auto gidatzeko autoak zabaltzeko hasierako faseetan gaude oraindik. Adopzioa nahikoa eskala eta ikusgarritasunera iritsi arte, azken finean iragartzen ditudan AI toxikoen alderdi asko ez dira agerikoak eta oraindik ez dute publikoaren arreta zabalik lortu.

Demagun itxuraz erraza den gidariarekin lotutako gai bat, hasiera batean guztiz inozoa dirudiena. Zehazki, azter dezagun nola zehaztu behar den ala ez kale bat gurutzatzeko bide-eskubiderik ez duten oinezkoen zain egoterako gelditzeko.

Zalantzarik gabe, gidatzen ibili zara eta kalea zeharkatzeko zain zeuden oinezkoekin topo egin duzu eta, hala ere, ez zuten horretarako bide-eskubiderik. Horrek esan nahi zuen diskrezioa zeukala gelditu eta gurutzatzen utzi ala ez jakiteko. Aurrera egin dezakezu gurutzatzen utzi gabe eta, hala ere, gidatzeko legezko arauen barruan egon zaitezke.

Giza gidariek horrelako oinezkoentzat gelditzea edo ez gelditzea erabakitzen duten azterketek iradoki dute batzuetan giza gidariek aukera txarrak egiten dituztela. Giza gidari batek oinezkoa begiztatu eta ez gelditzea erabaki dezake, nahiz eta oinezkoak beste itxura bat izan balu geldituko litzatekeen, arraza edo generoaren arabera, esaterako. Hemen aztertu dut hau esteka hemen.

Nola programatuko dira AI gidatzeko sistemak gelditzeko edo joateko erabaki mota hori hartzeko?

AI gidatzeko sistema guztiak zain dauden oinezkoentzat beti gelditzeko programatu behar direla aldarrikatu dezakezu. Horrek asko errazten du kontua. Benetan ez dago erabaki korapilotsurik hartzeko. Oinezko bat gurutzatzeko zain badago, pasabidea duen ala ez, ziurtatu AI auto gidatzen duen autoa gelditzen dela, oinezkoak zeharkatu ahal izateko.

Erraz-peasy.

Bizitza ez da inoiz hain erraza, antza. Imajinatu norberak gidatzen dituen auto guztiek arau hau betetzen dutela. Oinezkoak ezinbestean konturatuko lirateke AI gidatzeko sistemak, esango dugu, bultzatzaileak direla. Kalea zeharkatu nahi duten oinezko guztiek nahi eta nahi ez egingo dute, nahi dutenean eta dauden lekuan.

Demagun auto gidatzen duen auto bat kale bizkor batetik datorrela argitaratutako 45 kilometro orduko abiadura mugan. Oinezko batek "daki" AIak auto gidatzen duen autoa geldiaraziko duela. Beraz, oinezkoak kalera ateratzen dira. Zoritxarrez, fisikak irabazten dio AIari. AI gidatzeko sistema autoa gidatzen duen autoa geldiarazten saiatuko da, baina ibilgailu autonomoaren bultzadak tona anitzeko tramankulua aurrera eramango du eta oinezko bidegabera sartuko du. Emaitza kaltegarria da edo heriotza eragiten du.

Oinezkoek normalean ez dute horrelako jokabiderik probatzen gurpilean giza gidari bat dagoenean. Noski, toki batzuetan begien gerra bat gertatzen da. Oinezko batek gidari bati begiratzen dio. Gidariak oinezkoari begiak ematen dizkio. Egoeraren arabera, gidaria gelditu egin daiteke edo gidariak errepidearekiko erreklamazioa aldarrikatu eta oinezkoak bidea oztopatzen saiatzera ausartu daiteke.

Uste dugu ez dugu nahi AI antzeko begi-gerra batean sartzea, eta hori ere erronka samarra da, ez baitago pertsona edo robot bat auto gidatzen duen autoaren bolantean eserita (roboten etorkizuneko aukeraz eztabaidatu dut disko hori, ikusi esteka hemen). Hala ere, ezin dugu onartu oinezkoek beti dei egin dezaten. Emaitza negargarria izan daiteke interesdun guztientzat.

Orduan, baliteke txanpon honen beste aldera iraultzeko tentazioa izatea eta AI gidatzeko sistemak horrelako egoeratan ez duela inoiz gelditu behar adierazteko. Beste era batera esanda, oinezko batek ez badu kalea gurutzatzeko bide-eskubide egokirik, AIak beti suposatu beharko luke bere burua gidatzen duen autoak etengabe jarraitu behar duela. Zorte gogorra oinezko horiei.

Arau zorrotz eta sinplista hori ez da publiko orokorrak ongi onartuko. Jendea pertsonak dira eta ez zaie gustatuko kalea zeharkatu ahal izateari erabat itxita egotea, legez hainbat esparrutan horretarako bide-eskubidea falta zaien arren. Erraz aurreikus zitekeen publikoaren zalaparta handi bat eta ziurrenik auto gidatzen diren autoak etengabe hartzearen aurkako erreakzio bat gertatuko litzateke.

Darned egiten badugu, eta darned ez badugu.

Espero dut honek gidatzeko arazo honi aurre egiteko erabakiak hartzeko IA programatu behar duen alternatiba arrazoitu batera eraman zaituela. Inoiz gelditzeko arau gogor bat ezin da eutsi, eta, era berean, beti gelditzeko arau zorrotza ere jasanezina da. AI-a erabaki algoritmiko batzuekin edo ADMrekin asmatu behar da gaiari aurre egiteko.

Saia zaitezke datu-multzo bat erabiltzen ML/DL ikuspegiarekin batera.

Hona hemen nola erabaki dezaketen AI garatzaileek zeregin hau programatzea. Auto gidatzeko autoa erabiliko den hiri jakin baten inguruan kokatutako bideo-kameretatik datuak biltzen dituzte. Datuek erakusten dute giza gidariek bide-eskubidea ez duten oinezkoentzat gelditzea erabakitzen dutenean. Guztia datu multzo batean biltzen da. Machine Learning eta Deep Learning erabiliz, datuak konputazionalki modelatzen dira. Orduan AI gidatzeko sistemak eredu hori erabiltzen du noiz gelditu edo ez gelditu erabakitzeko.

Orokorrean, ideia da tokiko ohitura edozein dela ere, horrela bideratzen du AIak auto gidatzen duen autoa. Arazoa konponduta!

Baina, benetan konponduta al dago?

Gogoratu lehen adierazi nuela ikerketa-ikerketak daudela erakusten duten giza gidariek alboratuak izan daitezkeela oinezkoentzat noiz gelditu behar duten aukeratzerakoan. Hiri jakin bati buruz bildutako datuek aurreikuspen horiek izango dituzte ustez. Datu horietan oinarritutako AI ML/DL batek, ziurrenik, alborapen horiek modelatu eta islatuko ditu. AI gidatzeko sistemak lehendik dauden alborapen berdinak beteko ditu.

Arazoari aurre egiten saiatzeko, halako joerak dituen datu-multzo bat osatu genezake. Halako datu-multzo bat aurkitzen dugu eta gero alborapenak etiketatzen ditugu, edo sintetikoki datu-multzo bat sortzen dugu gaia ilustratzen laguntzeko.

Aurretik identifikatutako urrats guztiak egingo lirateke, besteak beste:

  • Konfiguratu alborapen jakin hori nahita duen datu-multzo bat
  • Erabili datu-multzoa Machine Learning (ML) eta Deep Learning (DL) ereduak alborapen zehatz hori detektatzeko trebatzeko.
  • Aplikatu alborapenean trebatutako ML/DL beste AI batzuei zuzendutako AI modu berean alboratuta dagoen ala ez jakiteko.
  • Alborapenez trebatutako ML/DL eskuragarri jarri AI eraikitzaileei zer ikusi behar duten erakusteko, beren ereduak erraz ikus ditzaten, algoritmikoki txertatutako alborapenak nola sortzen diren ikusteko.
  • Adibideratu AI alboratuaren arriskuak AI Etikaren eta AI Etikoaren kontzientziaren zati gisa, adibide zehatz gehigarri honen bidez.
  • Bestelakoa

Ondorioa

Berrikus dezagun hasierako lerroa.

Bat behar da bat ezagutzeko.

Batzuek interpretatzen dute ikaragarri hedatu den esaera honek esan nahi duela AI toxikoak ezagutzerako orduan, behar bezalako sinesmena eman beharko geniokeela AI toxikoa eraikitzeari eta erabiltzeari beste AI toxiko batzuk aurkitzeko eta tratatzeko. Beheko lerroa: Batzuetan, lapur bat behar da beste lapur bat harrapatzeko.

Agertutako kezka bat da agian gure bidetik irtengo garela lapurrak egiten hasteko. Toxikoa den AI asmatu nahi al dugu? Ez al zaizu ideia zoroa iruditzen? Batzuek gogor argudiatzen dute AI toxiko guztiak debekatu beharko genituzkeela, nahiz eta ustez heroiko edo galantentzat eraikitako IA hori barne. AI For Good helburua.

Desegin AI toxikoa sor litekeen edozein itxura burutsuan edo maltzurrekin.

Oraingoz gai honi azken bira bat. Oro har, lerro famatu honek ekintza txarrak edo garratzak egiten dituzten pertsonekin edo gauzekin zerikusia duela suposatzen dugu. Horrela lehorreratzen gara lapur bat harrapatzeko lapurra behar dela. Beharbada esaera honi buelta eman beharko genioke eta aurpegi alai bat baino aurpegi tristea egin.

Hona hemen nola egin.

Aldegabea eta toxikoa ez den IA nahi badugu, pentsa liteke bat ezagutzeko behar izatea. Agian handiena eta onena behar da handitasun eta ontasun gehiago ezagutzeko eta sortzeko. Jakinduria jakintsuaren aldaera honetan, begirada alai aurpegian mantentzen dugu eta asmatzen zentratu nahi dugu. AI For Good.

Ikuspegi alaiagoa eta alaiagoa izango litzateke bat ezagutzeko, zer esan nahi dudan badakizu.

Iturria: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- onuragarria-barne-auto-autonomo-auto-gidatzen-hauentzat/