AI Etika eta AI Legeak Segurtasun-abisuak exijitu eta indarrean dauden eta etorkizuneko AI guztietan bultzatu eta bultzatu daitezke.

Zure eguneroko jarduerak, dudarik gabe, era bateko edo besteko mila prebentzio-abisurekin edo gehiagorekin bonbardatuta daude.

Probatu hauek tamainarako:

  • Segurtasun-betaurrekoak eraman behar dira beti
  • Arriskua: Produktu kimiko arriskutsuak inguruan
  • Tentsio altua - Mantendu kanpoan
  • Abisua: Kontuan izan zure inguruaz
  • Ispiluko objektuak agertzen diren baino hurbilago daude
  • Kendu haurra tolestu aurretik (haur-kotxeetan adierazi bezala)
  • Kontuz: ziurtatu mezu honi ez ikusi egiten diola

Horietako gehienak seinale edo etiketa erabilgarriak eta guztiz pentsagarriak dira, seguru eta seguru mantentzeko balio dutenak.

Mesedez, kontuan izan zerrendan "kanpoko" batzuk sartu ditudala puntu aipagarri batzuk egiteko.

Esate baterako, pertsona batzuen ustez, intxaurra da haurtxoentzako gurditxoek etiketa bat jartzea, haurra oraindik tramankuluan eserita dagoen bitartean kotxea ez tolestu behar duzula ohartarazten dizuna. Seinalea egokia eta behar bezala erabilgarria den arren, badirudi oinarrizko zentzua nahikoa izango litzatekeela.

Zein pertsona ez litzateke bere borondatez jabetuko lehen haurra kendu behar duela?

Bada, beste batzuek azpimarratzen dute horrelako etiketak helburu garrantzitsua dutela. Lehenik eta behin, norbaitek benetan ahaztu behar du haurra kendu behar duela orgatxoa tolestu aurretik. Agian pertsonak suposatu zuen kotxetxoa zuhurtziaz diseinatuta zegoela tolestearen eragiketak haurrari kalterik egingo ez ziezaion. Edo, seguru asko, kotxe barruan haur bat dagoen bakoitzean tolestea eragozten duten segurtasun-funtzio integratuak daude. Etab.

Gainera, baliteke pertsona distraitua egotea eta kotxetxoa buru gabe tolestu izana, haurra eta guzti barne hartuta, baina etiketak zorionez pertsona hori ez egitera bultzatu zuen (batzuek esango lukete nekez nabarituko lukeela etiketa hori. hala ere). Badago, halaber, norbaitek gurditxoaren fabrikatzailea auzitara eraman dezakeela etiketa hori egon ezean. Imajina dezakezu haur bat zauritu eta gurasoak milioi bat dolar biltzea erabaki zuen auzi gogor horietako bat, kotxeak abisu seinalerik ez zuelako jarrita. Orritxoen konpainiak damutuko luke abisu-seinaleak beren gurditxoetan egin eta itsatsi behar diren zentimo gutxi gastatu ez izanaz.

Begiratu arretaz goian zerrendatu nituen azken abisu-mezuei ere.

Mezua jaramonik ez egiteari buruzko mezu smarmy jartzea aukeratu nuen, jendeak egun dibertsiorako erosten edo egiten dituen abisu-etiketa faltsu asko daudelako. Hau benetako pentsamendu filosofiko bat da. Abisuari ez ikusi egin behar dioen abisua irakurtzen baduzu, zer egin behar duzu zehazki abisua irakurri ondoren? Dagoeneko irakurri duzu, beraz, itxuraz zure buruan dago. Noski, ez ikusi egin dezakezu, baina, berriro ere, ez zaizu batere gomendatzen zer den alde batera utzi behar duzun. Buelta eta buelta, txantxa hau doa.

Jakina, benetako abisu-etiketek ez dute normalean txantxetako edo umorezko izaera.

Abisuak nahiko serio hartu behar ditugu.

Normalean, ohartarazitako abisu bat betetzen ez baduzu, arrisku pertsonal larri batekin egiten duzu. Eta, halaber, gerta liteke abisua behatzen eta betetzen ez baduzu beste batzuk ere arrisku larrian jartzea. Demagun auto bat gidatzeko ekintza. Auto baten bolantean zauden momentuan, gidari gisa egiten dituzun ekintzek zure buruari kalte egin diezaiekezu, gainera zure bidaiariei kalte egin diezaiekezu, eta besteei kalte egin diezaiekezu, hala nola beste autoetan dauden pertsonak edo inguruko oinezkoak. Zentzu horretan, abisua ez da zure onurarako soilik, litekeena da besteen mesederako ere.

Zergatik estaltzen ari naiz abisu eta ohartarazpen etiketen alderdi hauek?

Batzuek gogor esaten baitute gaur egungo Adimen Artifizialaren (AI) abisu eta kontu-seinaleak behar ditugula.

Egia esan, ideia da horrelako etiketak jartzea gaurko AIari eta etorkizuneko AIari ere. Oro har, AI guztiek harekin lotutako abisu edo ohartarazpen baten forma edo aldaera izango lukete.

Ideia ona ala ideia txarra?

Praktikoa ala ez praktikoa?

Goazen aurrera atera eta ikus dezagun zer egin dezakegun.

Lehenik eta behin, AIari eta bereziki AI Etikari eta AI Legeari buruzko oinarrizko oinarri batzuk ezarri nahiko nituzke, horrela AI abisuen gaia testuinguruan zentzuzkoa izango dela ziurtatzeko. Orokorrean AI Etikoan eta baita AI Zuzenbidean ere interesa duzuenontzat, ikusi nire estaldura zabala eta etengabea helbidean esteka hemen esteka hemen, Gutxi batzuk aipatzearren.

AI etikoaren eta baita AI Legearen kontzientziaren gorakada

AIaren azken aroa hasieran bezala ikusi zen AI For Good, hau da, AI erabil genezake gizateriaren hobekuntzarako. takoen gainean AI For Good gu ere murgilduta gaudela konturatu zen AI For Bad. Horrek barne hartzen du diskriminatzailea izan dadin asmatu edo auto-aldatutako IA eta aukeraketa konputazionalak egiten dituen alborapen desegokiekin. Batzuetan, IA horrela eraikitzen da, eta beste batzuetan, berriz, lurralde okerra sartzen da.

Egungo AIaren izaerari buruz orrialde berean gaudela ziurtatu nahi dut.

Gaur egun ez dago sentikorra den AIrik. Ez dugu hau. Ez dakigu AI sentikorra posible izango den. Inork ezin du ongi iragar AI sentikorra lortuko dugun ala ez, ezta AI sentikorra nolabait miragarriki berez sortuko den supernoba kognitibo konputazional baten moduan (normalean berezitasuna deitzen dena, ikus nire estaldura hemen. esteka hemen).

Zentratzen ari naizen AI mota gaur egun daukagun AI ez sentikorra da. AI sentikorrari buruz modu basatian espekulatu nahi bagenu, eztabaida hau zeharo beste norabide batean joan liteke. AI sentikor bat giza kalitatekoa izango litzateke. Kontuan izan beharko zenuke AI sentikorra gizakiaren baliokide kognitiboa dela. Are gehiago, batzuek IA super-adimentsua izan genezakeela espekulatzen dutenez, pentsa daiteke AI hori gizakiak baino adimentsuagoa izan daitekeela (AI super-adimentsua aukera gisa aztertzeko, ikus estaldura hemen).

Biziki iradokitzen nuke gauzak lurrean mantentzea eta gaur egungo IA konputazionala sentikorra izatea.

Konturatu gaur egungo IA ez dela gai giza pentsamenduaren parean "pentsatzeko". Alexa edo Sirirekin elkarreragiten duzunean, elkarrizketa gaitasunak giza gaitasunen antzekoak dirudite, baina errealitatea da konputazionala dela eta giza ezagutza falta dela. AIaren azken aroak asko erabili ditu Machine Learning (ML) eta Deep Learning (DL), zeinak konputazio-ereduen parekatzea baliatzen baitute. Horrek gizakiaren antzeko joerak dituzten AI sistemak ekarri ditu. Bien bitartean, gaur egun ez dago zentzu arruntaren itxura duen AIrik eta giza pentsamendu sendoaren harridura kognitiborik ere ez duenik.

Kontuz ibili gaur egungo IA antropomorfizatzearekin.

ML/DL eredu konputazionalaren parekatze modu bat da. Ohiko planteamendua erabakiak hartzeko zeregin bati buruzko datuak biltzea da. Datuak ML/DL ordenagailu ereduetara elikatzen dituzu. Eredu horiek eredu matematikoak aurkitu nahi dituzte. Eredu horiek aurkitu ondoren, aurkituz gero, AI sistemak eredu horiek erabiliko ditu datu berriak topatzerakoan. Datu berriak aurkeztean, datu "zahar" edo historikoetan oinarritutako ereduak aplikatzen dira egungo erabakia emateko.

Uste dut hau nora doan asma dezakezula. Erabakien eredua hartzen ari diren gizakiek alborapen txarrak sartu badituzte, litekeena da datuek modu sotil baina esanguratsuan islatzea. Machine Learning edo Deep Learning konputazio-ereduen parekatzea besterik ez da saiatuko datuak matematikoki imitatzen. Ez dago zentzu arruntaren edo beste alderdi sentikorren itxurarik AI-n landutako modelizazioaren berez.

Gainera, AI garatzaileak agian ez dira konturatzen zer gertatzen ari den. ML/DL-ko matematika arkanoak zaildu liteke orain ezkutuko alborapenak atzematea. Ziurrenik espero eta espero zenuke AI garatzaileek lurperatuta egon daitezkeen alborapenak probatuko dituztela, nahiz eta badirudi baino zailagoa den. Aukera sendoa dago, nahiz eta proba nahiko zabalak izan, ML/DL ereduen bat-etortze ereduetan alborapenak egongo direla oraindik.

Garbage-in garba-out-en esaera ospetsua edo gaiztoa zertxobait erabil dezakezu. Kontua da, hau AIaren barnean murgiltzen diren alborapenak maltzurki sartzen diren alborapenen antzekoagoa da. AIren algoritmoen erabakiak hartzea (ADM) axiomatikoki desberdintasunez kargatzen da.

Ez da ona.

Honek guztiak AI Etikaren inplikazio nabarmenak ditu eta AI legeztatzea saiatzean ikasitako ikasgaietarako leiho erabilgarri bat eskaintzen du (ikasgai guztiak gertatu aurretik ere).

Orokorrean AI Etika manuak erabiltzeaz gain, dagokio galdera bat dago AIaren hainbat erabilera arautzeko legeak izan behar ote ditugun. Lege berriak zabaltzen ari dira federal, estatu eta tokiko mailan, AI nola sortu behar den sorta eta izaerari buruzkoak. Horrelako legeak egiteko eta indarrean jartzeko ahalegina pixkanaka da. AI Etikak geldiune gisa balio du, gutxienez, eta ia ziur aski neurri batean zuzenean sartuko da lege berri horietan.

Kontuan izan batzuek irmo esaten dutela ez dugula IA estaltzen duten lege berririk behar eta gure lehendik dauden legeak nahikoak direla. Aurrez ohartarazten dute AIren lege horietako batzuk ezartzen baditugu, urrezko antzara hilko dugula gizartearen abantaila izugarriak eskaintzen dituzten AIren aurrerapenei eutsiz.

Aurreko zutabeetan, AI arautzen duten legeak landu eta abian jartzeko nazioko eta nazioarteko hainbat ahalegin azaldu ditut, ikusi esteka hemen, adibidez. Hainbat naziok identifikatu eta onartu dituzten AI Etikaren printzipio eta jarraibide ezberdinak ere aztertu ditut, besteak beste, Nazio Batuen ahalegina, adibidez, ia 200 herrialdek onartutako AIren UNESCOren multzoa, ikusi. esteka hemen.

Hona hemen lehendik gertutik aztertu ditudan AI sistema etikoen irizpide edo ezaugarrien giltzarri lagungarri bat:

  • Transparency
  • Justizia eta zuzentasuna
  • Ez-Malefizia
  • Erantzukizun
  • Pribatutasuna
  • Ongintzaren
  • Askatasuna eta Autonomia
  • Fidatu
  • Iraunkortasun
  • duintasuna
  • Elkartasuna

AI Etika-printzipio horiek AI garatzaileek benetan erabili behar dituzte, AI garapenerako ahaleginak kudeatzen dituztenekin batera, eta baita, azken finean, AI sistemetan mantentzea lantzen eta egiten dutenekin batera.

AIaren garapen eta erabileraren bizitza-ziklo osoan parte hartzen duten eragile guztiak AI Etikoaren ezarritako arauak betetzearen esparruan hartzen dira kontuan. Garrantzi handiko aipamena da hau, ohiko suposizioa delako "kodetzaileak" edo AI programatzen dutenek AI Etika nozioei atxikitzeko menpe daudela. Aurretik hemen azpimarratzen den bezala, herri bat behar da AI asmatzeko eta lantzeko, eta, horretarako, herri osoak AI Etika aginduak ezagutu eta bete behar ditu.

Berriki ere aztertu dut AI Eskubideen Agiria hau da, AEBetako gobernuaren dokumentu ofizialaren izenburu ofiziala "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" izenekoa, Zientzia eta Teknologia Politikarako Bulegoaren (OSTP) urte luzeko ahaleginaren emaitza izan zena. ). OSTP Estatu Batuetako presidenteari eta AEBetako Bulego Exekutiboari garrantzi nazionala duten hainbat teknologia, zientifiko eta ingeniaritza alderdiei buruzko aholkuak emateko balio duen erakunde federal bat da OSTP. Zentzu horretan, esan dezakezu AI Eskubideen Agiri hau AEBetako Etxe Zuriak onartutako eta onartutako dokumentua dela.

AI Eskubideen Agirian, bost giltzarri kategoria daude:

  • Sistema seguru eta eraginkorrak
  • Diskriminazio algoritmikoaren babesak
  • Datuen pribatutasuna
  • Oharra eta azalpena
  • Giza alternatibak, hausnarketa eta atzerapena

Arretaz aztertu ditut manu horiek, ikus esteka hemen.

AI Etika eta AI Zuzenbideari lotutako gai hauei buruzko oinarri lagungarriak ezarri ditudanez, prest gaude AI-ak abisu-etiketak izan behar dituen ala ez gai burutsura jauzi egiteko.

Presta zaitez informazio-bidaia ireki baterako.

Abisu-etiketak jartzea IA-ri, gizateria babesteko baliabide gisa

Gero eta zalaparta handiagoa dago, agian AI-ak nolabaiteko abisu batekin etorri beharko lukeela.

Adibidez, azken artikulu batean MIT teknologia berrikustea AIren auditoriak egiteko geroz eta interes handiagoarekin eztabaidatu zen, abisu-seinaleak ematearen ideia sortu zen: "Ikuskaritza hauen hazkundeak iradokitzen du egunen batean zigarro-paketearen moduko abisuak ikusiko genituzkeela AI sistemek zure osasuna eta segurtasuna kalte dezaketela. Beste sektore batzuek, produktu kimikoak eta elikagaiak esaterako, aldizkako auditoretzak egiten dituzte produktuak erabiltzeko seguruak direla ziurtatzeko. Horrelako zerbait bihurtu liteke AIren araua?”. (MIT teknologia berrikustea, Melissa Heikkilä, 24ko urriaren 2022a).

Hitz egin dezagun orokorrean abisu eta kontu-seinaleei buruz.

Dagoeneko, denok ezagutzen ditugu eguneroko izaerako produktu eta zerbitzu ugariren abisu eta kontu-seinaleak. Batzuetan, segurtasun-seinaleak legeak beharrezkoak direla ezartzen du, eta beste batzuetan, berriz, seinale horiek erabiltzeko diskrezioa dago. Horrez gain, segurtasun seinale batzuk normalizatuta daude, esate baterako, ANSI Z535 arauaren eta OSHA 1910.14 arauaren arabera zehaztuta. Arau horiek zeinuaren idazkera, erabilitako koloreak eta letra-tipoak, zeinuaren forma eta beste hainbat datu biltzen dituzte.

Zentzuzkoa da halako abisu seinaleetarako estandarrak izatea. Seinale hori ikusten duzun bakoitzean, adierazitako estandarrak betetzen baditu, litekeena da seinalea zilegia dela sinestea, eta prozesamendu kognitibo gutxiago behar duzu seinalea aztertzeko eta zentzua emateko. Ikuspegi estandarizatukoak ez diren seinaleetarako, askotan seinaleak esaten dizuna mentalki kalkulatu behar duzu, beharbada neurriak hartzeko denbora preziatua galduz edo seinalea guztiz gaizki baloratu eta eskuartean duzun abisua behar bezala ez ulertuko duzu.

Horrelako zeinu sorta bat egon daiteke, eta askotan honela sailkatu ohi dira:

  • Arrisku-seinalea: kezkarik handiena eta ondorio larriak izan ditzakeen berehalako arrisku baten adierazgarri
  • Abisu seinalea: "arriskua" baino txikiagoa den baina oraindik nahiko larria den arrisku baten adierazgarria
  • Kontuz-seinalea: "abisua" baino txikiagoa den baina benetan serioa den arrisku potentzial baten adierazgarri
  • Jakinarazpen-seinalea: "zuhurtzia" baino txikiagoa den baina alderdi kezkagarriak dituen informazio-buruaren adierazgarri.

Abisu eta kontu-seinaleei buruz aurreko aurrekariak ikusita, aurrera egin eta hori AIaren erabileran testuinguruan aplikatzen saia gaitezke.

Lehenik eta behin, nolabait ados gintezke AI seinaleztapena eguneroko seinaleekin ohikoa den larritasun-maila antzekoa izan daitekeela, hala nola:

  • AI arrisku seinalea: Kezkarik handiena duen IA eta ondorio larriak izan ditzakeen berehalako arrisku baten adierazgarri
  • AI abisu seinalea: AI "arriskua" baino txikiagoa den baina oraindik nahiko larria den arrisku baten adierazle
  • AI Kontuz-seinalea: AI arrisku potentzial baten adierazle, "abisua" baino txikiagoa dena, baina benetan serioa
  • AI jakinarazpen-seinalea: AI "zuhurtzia" baino txikiagoa den baina hala ere alderdi kezkagarriak dakartzan informazio-buruak adierazten du

Kontua da AI guztiak ez direla berdin kezkagarriak izango. Gerta liteke AI batek arrisku izugarriak izatea edo arrisku marjinalak soilik izatea. Horren arabera, seinaleztapenak zein den islatu behar du. AIren abisu edo ohartarazpen-seinale guztiak kalibre berekoak direla erakutsiko balira, ziurrenik ez genuke jakingo edo jakitun izango AI-rekin oso kezkatuta egon behar ote den edo apur bat bakarrik. Idatz-eskema tipifikatu bat erabiltzeak bizitza erraztu dezake AIrekin lotutako abisu-seinaleak ikustean eta interpretatzean.

Baliteke seinaleek zer gehiago esango luketen helarazi beharreko mezuaren zehaztasunei dagokienez.

Zalantzarik gabe, horri aurre egitea zailagoa da. Seguru edo kezkagarritzat jotzen diren gauzak egiteko AI aukerak izugarri handiak izango lirateke, ia amaigabeak. Jar al ditzakegu bakoitza hitz gutxitan idatzita dagoen multzo arrunt batean? Edo formulazioa nola joango den ikuspegi libreago bat onartu beharko dugu?

Galdera ireki hori hausnartzen utziko dizut.

Aurrera eginez, objektuetan jarritako abisu seinaleak ikusi ohi ditugu. AI sistema bat ez da nahitaez "objektu" bat zeinuen ohiko eranskinaren zentzu berean. Horrek AIren abisu seinaleak non aurkeztuko diren galdetzen du.

Baliteke aplikazio bat exekutatzen ari zarenean zure telefonoan esatea AI erabiltzen ari bada AIarekin lotutako abisua duen mezu bat agertuko dela. Aplikazioak AIaren azpiko erabilerari buruz ohartaraziko zaitu. Hau pop-up mezu bat izan daiteke edo modu bisual eta baita entzumen ezberdinetan aurkez daiteke.

AI-k babesten duen zerbitzu bat erabiltzearen egoera ere badago, nahiz eta baliteke AIarekin zuzenean interakzioan ez egotea. Esate baterako, giza agente batekin elkarrizketa bat izan dezakezu etxebizitzako hipoteka bat lortzeko, eta horretarako agentea isilean dago AI sistema bat erabiliz beren ahaleginak gidatzeko.

Beraz, AIren abisu-seinaleak egon beharko liratekeela AIren bi erabilera kasuetan, hala nola:

  • Produktuari buruzko AI espezifikoa: AI produktu gisa AI abisu edo kontu-seinaleak izan behar ditu
  • Zerbitzuetara bideratutako IA: AI zerbitzu gisa (zuzenean edo zeharka) AI abisu edo kontu-seinaleak izan beharko lituzke

Zalantzarik gabe, eszeptikoek azkar egingo lukete iradokitzen AI abisu-seinalea aplikazioen sortzaileak desbideratu dezakeela, alerta bereziki nabarmena izan ez dadin. Beharbada, abisua instant labur batez agertzen da eta benetan ez zara nabarituko erakutsi zenik. Beste trikimailu maltzur bat joko moduko bat egitea izango litzateke, itxuraz alertaren larritasuna gutxituz eta jendea abisua eraginik gabekoa dela pentsaraziz.

Bai, nahiko apustu egin dezakezu AIarekin lotutako abisu-seinaleak engainatu eta erabiliko direla transmititu behar duten mezularitzaren izpirituaren eta asmoaren barruan ez dauden moduetan.

Eszeptizismo horiek guztiak bat egiten dute AI Etika "lege bigun" gisa erabiliko ote dugun AIarekin lotutako abisu eta ohartarazpenetan aurrera egiteko, edo ea "lege gogorrak" erabiliko ote ditugun, auzitegien babesa duten legeak barne hartuta. Teorian, lege bigunen bultzadak gaiarekin jolasteko itxura handiagoa izatea ahalbidetuko luke, liburuetako legeek gobernuak betearazteko aukera izango lukete eta zorroztasun handiagoa ekarriko lukete.

Beste kezka bat da AI seinaleak nolanahi ere eragingo ote duen.

Kontsumitzaileen portaerari buruzko ikerketek emaitza nahasiak erakusten dituzte kontsumitzaileei abisu-etiketak eskaintzeko orduan. Batzuetan abisuak eraginkorrak dira, beste batzuetan ez. Aplikatu ditzagun ikerketa horietako batzuk AI testuinguruan.

Kontuan izan alderdi hauek:

  • Detekzioa: AI abisu-seinale bideragarria duen AI erabiltzen dutenek aktiboki ohartuko al lirateke seinalea erakusten zaiela edo hautemango al lukete (seinale hori gertatu dela suposatuz)?
  • Ulermena: Konturatu zirenek, ulertuko al lukete edo ulertuko al lukete zer iradokitzen saiatzen ari den AI abisu seinalea?
  • Ekintza: Jauzi mental hori egiten dutenentzat, AI abisu seinaleak ekintzara bultzatuko al ditu edo, bestela, haien jokabidea bideratzeko balioko al du?

Aurreikus dezakezu AI abisu seinaleak edukitzeko bultzada irabazten bada, ikertzaileek gaia gertutik aztertuko dutela. Ideia litzateke abisuak zein egoeratan lagungarriak diren eta noiz ez argitzen laguntzea. Horrek, aldi berean, diseinuarekin eta inplikatutako itxurarekin erlazionatuta dago. Era berean, espero genezake, oro har, publikoa hezi edo informatu beharko litzatekeela AI abisu eta kontu-seinale horien agerpenari buruz, haietara ohitu daitezen.

Kontuan hartu beharreko bihurgune asko daude.

Erabiltzen ari den aplikazioaren hasieran bakarrik agertu behar al da AIren abisua edo ohartarazpen seinalea? Agian abiapuntua ez da nahikoa berez. Pertsona batek lehen begiratuan pentsa lezake aplikazioa abisu bat erabiliz seguru jokatzen ari dela eta, beraz, abisuari ez dio arreta handirik ematen. Pertsona aplikazioa erabiltzen erdian dagoenean, agian abisu gehigarri bat bermatuko litzateke. Une horretan, pertsona gehiago jakitun da aplikazioak zer egiten ari den eta baliteke lehenago adierazitako abisu-mezuaz ahaztuta egotea.

Orduan AI abisua edo ohartarazpena gerta daiteke:

  • Aplikazioa hasi aurretik eta aplikazioa deitzear dagoenean
  • Aplikazioa abiaraztean eta hasierako puntuan bakarrik aurkezten da
  • Hasieran erakusten da eta erdibidean berriro
  • Hainbat aldiz erakusten da AIaren erabileran zehar
  • Aplikazioa erabiltzearen amaieran ematen da
  • Eman aplikaziotik irten ondoren eta agian minutuak, orduak edo egunak geroago ere
  • Eta abar.

Uste duzu IA erabiltzen duen pertsonak AIren abisu edo ohartarazpen seinaleren bat baieztatu edo onartu behar duela?

Batzuek azpimarratuko lukete pertsona horri abisuak ikusi dituela aitortu behar zaiola. Horrek abisu-mezurik ez zegoela esan dezaketenak saihestuko lituzke. Jendeak mezuak serioago har ditzan ere eragin dezake, abisu-adierazpena errespetatu dutela baieztatzeko eskatzen zaielako.

Hona hemen galdera gogor bat zuretzat.

Beharrezkoa guztiak AIk abisu edo segurtasun-adierazpen bat eman behar al du?

Bai, AI guztiek hori izan behar dutela esan dezakezu. AI segurtasun-arrisku marjinal bat baino ez bada ere, abisu-seinaleren bat izan beharko luke, agian jakinarazpen bat edo informazio-zantzu bat besterik ez. Beste batzuek auzi hori eztabaidatuko lukete. Itsasontzitik zoazela kontraargutuko lukete. AI guztiek ez dute hau behar. Gainera, AI guztia izatera behartzen baduzu, helburua diluituko duzu. Jendeak abisu-zantzuak ikustean zoratuta geratuko da. Planteamendu osoa fartsa bihurtuko da.

Erlazionatutako angelu batean, kontuan hartu zer esango duten AI-eko arduradunek.

Ikuspegi bat hau dakizu zer jarri behar den mina izango dela litzateke. Zure AI sistema guztiak aldatu eta funtzio hau gehitu behar izatea garestia izan daiteke. Aurrerantzean gehitzea merkeagoa izan liteke, baina, hala ere, hornidura hau sartzearekin lotutako kostu bat dago.

Lainotasuna da balizko beste kexa bat. Nolako mezua erakutsi behar da? Estandarrik ez badago, horrek esan nahi du AI-eko arduradunek zerbait berria landu beharko dutela. Kostu gehigarri honek ez ezik, auzitara eramateko atea irekitzen du. Imajina dezakezu AI-ekoizle bat bere abisua beste AI-sistemaren bat bezain ona ez zelako zereginera eraman zitekeela. Abokatuek sorta bat egiten amaituko dute sortutako nahasmenetik.

Segurtasun-mezu hauen aurrean jendea beldurrik gabe geratuko den kezka ere badago.

AI-ekoizle batek erabiltzaile-kopuruaren beherakada nabarmena izan dezake segurtasun-mezu baten ondorioz, informazio kontu bat eskaintzea besterik ez duena. Jendeak ez du jakingo zer egin mezuarekin. Aurretik horrelako mezuak ikusi ez badituzte, baliteke berehala ikaratu eta AI-a erabiltzea alferrik saihestea.

Alde horiek aipatzen ditut batzuk dagoeneko aldarrikatzen ari direlako "ez duela minik" AI abisuak edo segurtasun mezuak sartzen hastea. Haientzat, ideia sagar tarta bezain aproposa da. Inork ezin ditu serioski AI-rekin lotutako segurtasuna edo abisuak beti eskatzearen onurak. Baina, noski, hori ez da mundu errealeko gaia pentsatzeko modu bat.

Harago joan zaitezke eta AIren abisu-mezuek histeria masiboa sor dezaketela aldarrikatu. Bat-batean AI sistemak horrelako mezuak izatera behartzen hasiko bagina, jendeak asmoa gaizki ulertu dezake. Ikusten duzu, AIren krisi existentzial baten aurrean gaudela gomendio asko daude, zeinaren bidez AIk mundua bereganatu eta gizadia ezabatuko duen, ikusi. esteka hemen erreklamazio mota horiek aztertzeko.

AIren abisu-mezuaren erabilerak pertsona batzuk "inspiratu" ditzake amaiera gertu dagoela sinestera. Bestela zergatik agertuko ziren mezuak orain? Zalantzarik gabe, azkenik, AI gure jaun zapaltzaile bihurtzeko prestatzen ari dela adierazten du.

Gauza egokia egiten saiatzearen emaitza etsigarri moduko bat, publikoa AI diskriminazio-gaitasunekin edo bestelakoekin nola txertatu daitekeen jakinarazteaz. AI For Bad alderdiak.

Ondorioa

James Russell Lowell, poeta estatubatuar ospetsuak, hau esan zuen behin: "Esperientziaren arantza batek merezi du abisua basati oso bat".

AI abisuei edo segurtasun mezuei buruz amaierako iruzkin batzuk egiteko iruzkin handia ekarri dut.

Litekeena da AI-ak egintza txarrak egiten dituela konturatu arte, AI-rekin lotutako abisu-mezuen oihartzun handirik ez izatea. Borondatez hori egitea aukeratzen duten AI-eko arduradunak agian goraipatu egingo dira, nahiz eta nahigabe ere bidegabeko jazarpena izan dezaketen. Zenbait adituk haien atzetik joan daitezke, itxuraz abisuak behar dituen IA aprobetxatzeagatik, hasteko, eta bien bitartean, lehen joan nahian ari zirela konturatzen direla eta beste AI sortzaile horiek atzean geratzen ari direla.

Kontua egiten baduzu, beharbada ez baduzu egin.

Beste gogoeta bat ideia kontzeptual polita dirudiena praktika praktiko eta erabilgarria bihurtzeari buruzkoa da. Erraza da eskuak astintzea eta haizeei AI-ak abisu eta segurtasun mezuak izan behar dituela oihukatzea. Zaila da mezu horiek zein izan behar diren erabakitzerakoan, noiz eta non aurkeztu behar diren, haien kostuak etekin nahikoa ateratzen ari ote den edo zenbateraino, etab.

Hemen James Russell Lowelli emango diogu oraingoz gai honi buruzko azken hitza (poetikoki): "Sormena ez da gauza bat aurkitzea, aurkitu ondoren zerbait egitea baizik".

Asmatu gure mahukak bildu eta honi lanari ekiteko garaia dela. Eta hori ez da abisu bat bakarrik, ekintza bat da.

Iturria: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- abisuak-dagoen-eta-etorkizuneko-ai/