AI etika AIan oinarritutako arma autonomoen sistemen eta deabruki armatuta dauden AI-k bultzatutako sistema autonomoen ustiapen sutsuarekin borrokan ari da.

Lau hankako robot dantzari harrigarri haiek.

Ziur nago ikusi dituzula lau hankako sistema robotikoen bideo biral horiek, itxuraz gozagarri eta txakur itxurako modu maitatuetan dantzatzen eta ibiltzen direnak. Badirudi gustura gaudela AI-k bultzatutako robot horiek oztopoen gainetik igotzen direnean ikustea eta badirudi oin delikatua lortzen dutela kutxen gainean jartzen direnean edo armairuen goiko gailurretan prekarioki jarri ostean. Haien giza-kudeatzaileek batzuetan lau hankako robot distiratsuak zulatu edo bultzatuko dituzte, eta horrek ikaragarri bidegabea dirudi eta erraz piztu dezake zure haserrea humanoide buru horiek duten tratu txarrengatik.

Galdetzen ari naiz, ordea, guztiz beste kalibre bateko bideo ez hain birikoak ikusi ote dituzun.

Presta ezazu zeure burua.

Mota bateko edo besteko arma nabarmenez hornitutako lau hankako robotak erakusten dituzten bideoak asko argitaratu dira.

Esaterako, metrailadore bat edo antzeko su-arma bat bestela ezaguna den dantza-eta-errota baten gainean jartzen da. Lotura elektroniko bat dago lau hankako robotaren eta armaren tiro mekanismoaren artean. Orain armatuta dagoen ordenagailuz ibiltzen den tramankulua zezen-helburu bat jarri den tokira pausoka zihoala erakusten da, eta metrailadorea arratoi-kolpea tiro egiten du helburura. Ondoren partzialki suntsitu zuten helburua iltzatu ondoren, lau hankako robotak gertuko oztopoen inguruan dantzan eta dantzan egiten du eta lerrokatzen dira ekintza bera behin eta berriz errepikatzeko beste helburu berrietan.

Ez da espero zenezakeena. Horrek, zalantzarik gabe, arintasuna eta poza erlatiboa kentzen ditu lau hankako robot kutsu haiek beren lana egiten ikusteak zintzoki. Ongi etorri itxurazko errealitate gogorrera inozoa sistema autonomoak arma zorrotz bihurtzen edo eraldatzen ari dira. Ahalegin handirik egin gabe, egun batetik bestera "armarik gabeko" sistema autonomo bat berritu dezakezu arma osoa edukitzeko.

Zenbait kasutan, ia erraza da.

Gai eztabaidagarri hau eztabaidatuko dut eta sortzen diren AI Etikaren nahasmendu handiak estaliko ditut. Bidaia bat egingo dugu sistema autonomoetan, AI, ibilgailu autonomoetan, armagintzan eta erlazionatutako AI Etikoko borroka-gai ugaritan. AI Etikari eta AI etikoari buruz dudan etengabeko estaldura zabala ikusteko, ikus esteka hemen esteka hemen, Gutxi batzuk aipatzearren.

Has gaitezen oinarrizko giltzarri batzuekin.

Eztabaidarako, onartu armaz armatutako sistema autonomoak sailkatzeko bi modu nagusi daudela:

1) Arma Sistema Autonomoak (diseinuaren arabera)

2) Armatuta dauden Sistema Autonomoak (gero ondoren)

Desberdintasun garrantzitsua dago bi kategorien artean.

Lehenik eta behin, an definituko dugu arma sistema autonomoa hasieratik sorkuntza informatizatua izan nahita arma izan nahi duena. Garatzaileek gogoan zuten arma bat asmatu nahi zutela. Haien bilaketa esplizitua arma bat ekoiztea da. Bazekiten armak sistema autonomoen teknologia berrienekin konbinatu zitezkeela. Mugimendu autonomoa eta ekintza autonomoak lortzen dituen goi-teknologiako uhinaren gainean ibiltzen den arma bat da (laster sakonduko dut).

Aitzitik, bigarren kasuan, armagintzarako inolako joera berezirik ez duten sistema autonomoen gaia aztertuko dugu. Beste helburu batzuetarako garatzen ari diren sistema autonomoak dira. Ikusi ibilgailu autonomo bat, esate baterako, norbere gidatzen den auto bat, guztientzako mugikortasuna eskaintzeko eta gizakiek gidatzen duten eta gizakiek funtzionatzen duten ibilgailuen ondorioz gertatzen diren urteko milaka heriotza murrizteko laguntza emateko (ikusi nire estaldura sakona). etan esteka hemen). Badirudi ez dela arma bat kontuan hartzen gizakiak bolantetik ateratzeko eta AIaren ordez gidariaren eserlekuan jartzeko gizartea bultzatzen duten ahaleginak.

Baina sistema autonomo inozo horiek armatu daitezke gizakiek hala nahi badute.

Bigarren kategoria hau aipatzen dut orduan armatuta dauden sistema autonomoak. Sistema autonomoa jatorriz eta debozioz landua izan zen ustezko helburu ez zen batetarako. Hala eta guztiz ere, itxaropen altruista ameslaria irauli egiten da nonbait, asmakizun hau armak izan zitekeela ideia konbinatua lortzen duen norbaitek. Bat-batean, kuttuna zirudien sistema autonomoa arma hilgarria bihurtu da arma-gaitasunen bat etiketatuz (adibidez, lehen aipatutako lau hankako txakur-itxurako robotak, metraileta edo antzeko su-arma bat duten ezaugarrietan gehituta) .

Zoritxarrez, bi kategoriak leku berean amaitzen dira, hots, armagintzarako sistema autonomoak hilgarri izan daitezkeen moduan erabiltzeko gaitasuna eskaintzen dute.

Litekeena da amaiera puntu horretara iristeko prozesua ezberdina izatea.

Arma gisa ezarri ziren erabat armatutako sistema autonomoetarako, arma-alderdiak normalean aurrean eta erdian daude. Esan dezakezu sistema autonomoaren alderdiak kontuan hartzen ari den edozein armaren oinarrian bilduta daudela. Garatzaileen pentsamendu prozesua arma batek sistema autonomoen etorrera nola ustiatu dezakeenaren ildotik dator.

Beste ikuspegia normalean ez da batere pentsamolde hori. Garatzaileek punta-puntako sistema autonomo bat lortu nahi dute, agian gizateriaren hobekuntzarako. Garatzaile hauek beren bihotz eta arima zintzoena jarri dute sistema autonomoa egiteko. Hau da haien asmakizunaren muina. Agian ez dute imajinatuko inork usurpatuko edo irauliko lukeenik haien gailu miragarri onuragarria. Zoriontsuki maiteminduta daude sistema autonomoa moldatzen eta ekoizten ari den gizarte-onurekin.

Noizbait, demagun hirugarrenak konturatzen direla sistema autonomoa armatu ahal izateko birjaldatu daitekeela. Beharbada, garatzaileak engainatzen dituzte sistema autonomoa izan dezaten helburu handitzat jotzen den horretarako. Ateak itxita, gaizkile hauek sistema autonomoari armak jartzeko ahalmena maltzurki gehitzeko aukeratzen dute. Voila, errugabetasuna erabateko arma bihurtu zen.

Gauzak ez dute horrela jarraitu behar.

Beharbada, garatzaileei sistema autonomo xalo bat garatzen ari zirela esan zieten, baina ahalegina finantzatzen edo zuzentzen zutenek beste helburu batzuk zituzten buruan. Agian sistema autonomoaren ahalegina errugabe hasi zen, baina gero fakturak ordaindu behar izan zituztenean, lidergoak akordioa moztu zuen sistema autonomoak nahi dituen finantzazio iturri batekin, arrazoi gaiztoengatik. Beste aukera bat da garatzaileek bazekitela geroko erabilera bat armagintzarako izan zitekeela baina pentsatu zutela zubi latz hori zeharkatuko zutela noiz edo noiz sortuko bazen. Etab.

Hau guztia nola jokatzen den jakiteko bide asko eta asko daude.

Interesgarria irudituko zaizu aurreko zutabeetan deskribatu dudan AIaren Etikaren kontzientzia gero eta handiagoa dela. erabilera bikoitzeko AI garaikidearen elementuak, ikus esteka hemen. Utzidazu laburki ezagutarazten.

Onerako aurreikusten den AI sistema bat txarren atarian egon daiteke batzuetan, agian aldaketa sinple batzuen bidez, eta, ondorioz, erabilera bikoitzeko izaera duela jotzen da. Berriki berrietan, hiltzaileak izan zitezkeen produktu kimikoak aurkitzeko eraikitako AI sistema bat zegoen, eta horretarako garatzaileek gaizki asmatutako produktu kimikoekin saihestu edo kontuz ibili gintezkeela ziurtatu nahi zuten. Ematen du AI-a zertxobait erraz molda daitekeela produktu kimiko hiltzaile horiek arretaz deskubritzeko eta, beraz, gaiztoek beren plan gaizto izugarrietarako zein produktu kimiko prestatu ditzaketen jakiteko.

Sistema autonomoak erabilera bikoitzeko inguratzaile horretan sar daitezke.

Neurri batean, horregatik AI Etika eta AI etikoa gai erabakigarria da. AI Etikaren aginduek adi egoteko garatzen gaituzte. AI teknologoak batzuetan teknologiarekin kezkatu daitezke, batez ere goi-teknologiaren optimizazioan. Ez dira zertan gizartearen adar handiagoak kontuan hartzen. AI Etikaren pentsamoldea izatea eta AI garapenean eta eremuan modu integralean egitea ezinbestekoa da AI egokia ekoizteko, enpresek AI Etika nola hartzen duten ebaluazioa barne (agian harrigarriki edo ironikoki).

Orokorrean AI Etika manuak erabiltzeaz gain, dagokio galdera bat dago AIaren hainbat erabilera arautzeko legeak izan behar ote ditugun. Lege berriak zabaltzen ari dira federal, estatu eta tokiko mailan, AI nola sortu behar den sorta eta izaerari buruzkoak. Horrelako legeak egiteko eta indarrean jartzeko ahalegina pixkanaka da. AI Etikak geldiune gisa balio du, gutxienez, eta ia ziur aski neurri batean zuzenean sartuko da lege berri horietan.

Kontuan izan batzuek irmo esaten dutela ez dugula IA estaltzen duten lege berririk behar eta gure lehendik dauden legeak nahikoak direla. Izan ere, ohartarazi dute AIren lege horietako batzuk ezartzen baditugu, urrezko antzara murriztuko dugula gizartearen abantaila izugarriak eskaintzen dituzten AIren aurrerapenak murrizten.

Autonomia eta arma bi agindu gisa

Batzuek mota guztietako armadun sistema autonomoei buruz abisatzeko erabiltzen ari diren esaldi bat dago, kolektiboki asmatzen ari direnak. slaughterbots.

Honek hausnartu beharko genukeen alderdi gehigarri bat ekartzen du.

Arma-sistema autonomo batek eta/edo armatu den sistema autonomo batek robot hilgarria edo hiltzailea izan behar al du?

Batzuek esango lukete erabakigarria izan dezakegula ez-hilgarria sistema autonomo armatuak ere. Hortaz, ikuspuntu horretatik, guztiz desegokia irudituko litzateke slaughterbots edo killer robots bezalako esaldiak erabiltzea. Hilgarria ez den aldaera batek emaitza hilgarria ez den kaltea menperatzeko edo gauzatzeko gai izango litzateke. Sistema horiek ez dira hiltzen, zauriak sortzeko ahalmen txikiagoa dute. Ez gailentzea gehiegizkoa, esan ez dugula zertan kezkatu behar hiltzeko makina baten tropel batekin.

Beraz, hau izan genezake:

  • Arma sistema autonomo hilgarriak
  • Armatu diren sistema autonomo hilgarriak
  • Hilgarriak ez diren arma-sistema autonomoak
  • Armatu diren sistema autonomo ez-hilgarriak

Noski, kontrako argudioa da armak izan den edozein sistema autonomoek hilgarritasunaren eremura lerratzeko ahalmena duela dirudi, nahiz eta ustez hilgarria ez den oinarrian erabiltzeko soilik aurreikusi. Hilgarri ez denetik hilgarrira pasatzeko bi urratsak azkar egingo dira sistema autonomo baten artean arma bat eskuan duzunean. Zaila izango litzateke hilgarria ez dena hilgarriaren eremuan sartuko ez den bermea eskaintzea (batzuk horrela saiatzen ari diren arren, itxura matematiko batean).

Sistema autonomoen eta armagintzaren gai orokor honetan askoz gehiago sakondu baino lehen, erabilgarria izan liteke beste zerbait adieraztea, agian begi-bistakoa izan arren, nahitaez begien bistakoa ez dena.

Hemen dago:

  • Badago AI alderdi bat sistema autonomoaren parte dena
  • Ekuazio honen arma-alderdia den arma-alderdi bat dago
  • AI armarekin ere konektatu daiteke

Deskonprimitu dezagun hori.

Onartuko dugu gaur egungo sistema autonomoek IA behar dutela alderdi autonomoak azaleratzeko azpiko baliabide informatizatu gisa. Hau aipatzen dut, sistema autonomoak egiteko AI-rekin zerikusirik ez duten teknologiak eta teknikak erabiliko genituzkeela argudiatzen saia zintezkeelako, eta hori egia bada ere, gero eta gutxiago dirudi. Funtsean, AI autonomia maila handiagoak ahalbidetu ohi ditu, eta gehienek AI goi-teknologia aprobetxatzen dute horren arabera.

Ados, sistema autonomoan nolabait txertatuta dagoen eta sistema autonomoa gidatzeko eta kontrolatzeko jarduten duen AI-n oinarritutako gaitasun bat dugu.

Mantendu hori zure esku, arau gisa.

Badirudi arma motaren bat ere izan behar dugula, bestela zergatik eztabaidatzen ari gara hemen sistema autonomoen gaia armak. Beraz, bai, bistan denez, badago arma bat edo beste.

Ez naiz erabili daitekeen arma motan sakonduko. Besterik gabe, burura etortzen zaizun arma ordezkatu dezakezu. Baliteke arma zehatzak egotea. Masa zuzendutako arma suntsitzaileak egon liteke. Balak edo proiektilak dituen zerbait izan daiteke. Produktu kimikoak edo osagai atomiko lurrunkorrak dituen zerbait izan daiteke. Zerrenda amaigabea da.

Kontu gehigarria da AI armekin elkarlotuta dagoen ala ez. Baliteke AIak armak ibilaldi bat egitea besterik ez izatea. Pistola bati tiro egiten ari zen lau hankako robotaren kasuan, beharbada arma abiarazteari urruneko agintea duen gizaki batek tiro egiten ari da. Txakur-itxurako robotak eszena batean nabigatzen du eta, ondoren, urruneko gizaki bati dagokio abiarazlea tiratzea.

Bestalde, AI abiarazlearen tiratzailea izan daiteke, nolabait. Baliteke AI nabigatzeko eta maniobratzeko ez ezik arma aktibatzeko ere asmatua izan da. Zentzu horretan, AI-a dena egiten ari da Atik Z-ra. Ez dago urruneko gizaki baten menpekotasunik gauzen armaren alde egiteko. AI hori egiteko programatuta dago.

Beraz, armatuta dauden sistema autonomoen erabilera kasu zehatz honetan argitzeko, aukera mota hauek ditugu:

  • Sistema autonomoa: AIk sistema autonomoa bere kabuz zuzentzen du
  • Sistema autonomoa: AI-k sistema autonomoa zuzentzen du, baina gizakiak ere esku hartu dezake
  • Armak: Urruneko gizakiak armak zuzentzen ditu (AIak ez du)
  • Armak: AI-k armak zuzentzen ditu, baina begiztetan dagoen gizaki batek ere esku hartu dezake
  • Armak: AIk bere kabuz zuzentzen ditu armak

Aurrez, sistema autonomoei eta ibilgailu autonomoei buruzko giza-erregimena edukitzearen aldaerak aztertu ditut, ikusi esteka hemen.

Lau hankako robot dantzatzen eta ibiltzen direnen bideo dibertigarri horiek ikusten dituzunean, normalean AI-ak nabigazio esklusiboan zuzentzen dituen robotak izan ohi dira (beno, horixe da ohitura edo etiketa egokitzat jotzen dutenen artean. gai hauetan). Hori da zilegi ere suposatuko zenukeena. Noski, ez dakizu hori ziur. Gerta liteke urruneko giza operadore bat robotak gidatzen ari izatea. Badago AIak gidaren zati bat egiteko aukera ere, eta urruneko giza operadore batek ere hala egiten du, agian AIari lagunduz, robota posizio gogorrean sartzen bada eta ezin badu kalkulatu modu bideragarririk kalkulatu bere burua libre mugitzeko.

Honen mamia da AI eta sistema autonomoak eta armagintza nola nahasteko gai diren zapore ugari daudela. Batzuek sistema autonomoa zuzentzen duen baina armak ez dituen IA dute. Gizaki batek beharbada urrunetik zuzentzen ditu armak. Beste angelu bat da armak aldez aurretik aktibatuta egotea eta sistema autonomoak aktibatuta dagoen arma entregatzen duela, beraz, AIak ez zuen berez armaren abiaraztean zuzenean parte hartu eta entrega-ibilgailu gisa jokatzen ari zen. Eta baliteke AI-a esanguratsu bat izatea eta sistema autonomoaren alderdien gama osoa ere armak erabiltzean.

Hartu zure hautua.

Bien bitartean, jakin ezazu giza-begizta faktore handia dela gai honi buruzko eztabaidetarako orduan.

Batzuen lerro banatzaile bat da AI-a helburu eta tiro egiten ari bada (edo armak dakarrena) kit eta kaboodle osoa no-no-lur gurutzatu direla. Hori itxuraz desberdina da gizakiak aldez aurretik zehaztutako hautaketa bat duten su eta ahaztezko arma konbentzionaletatik, hala nola, patruilatzeko drone bat, misil bat prest duen helburu bati tiro egiteko prest duena. dagoeneko gizaki batek aukeratutakoa.

Batzuek galdetzen dute zergatik armatuta dauden sistema autonomoek ez duten beti giza-begizta barne hartuko sistema autonomoa aktiboki abian dagoen egoeran dagoen prozesu osoan. Badirudi hobeto egongo ginatekeela eskakizun zorrotz bat horrelako sistema autonomo armatu guztiek giza-begizta bat izan behar zutela, sistema autonomoaren funtzionamendurako edo armak (edo bietarako) funtzionatzeko. . AI nahasketa honetan ustezko giza esku ziur eta finkoa mantentzea guztiz jakintsua dirudi.

Presta zaitez hori zertan bideragarria ez den arrazoien zerrenda luze baterako.

Kontuan izan zailtasun hauek:

  • Baliteke human-in-the-loop aski azkarra ez izatea garaiz erantzuteko
  • Baliteke Human-in-the-loop-ek behar adina informazio ez izatea arduraz erantzuteko
  • Baliteke human-in-the-loop behar den unean erabilgarri ez egotea
  • Baliteke giza-erregimena erabaki gabe egotea eta behar denean ez du jardungo
  • Gizakiek erabaki "okerrak" har ditzake (erlatiboki)
  • Baliteke human-in-the-loop sistematik behar den unean sartzea
  • Gizakiak nahastu eta larritu egin daitezke
  • Eta abar.

Zalantzarik gabe, gizakiaren ahultasun eta mugen zerrenda hori aztertzeko tentazioa duzu eta, ondoren, ondorio solemnera iristeko, itxurazko zentzua duela gizakiaren begizta kentzea eta beti horren ordez AI erabiltzea. Hau gizakiaren begiztaren bazterketa izan liteke edo, agian, AIak errotutako giza begiztaren diseinua gainditzeko gai izan daiteke. Ikusi nire analisia IAren eta gizakiaren arteko desadostasunak egoera prekarioetara nola ekar ditzakeen, hemen esteka hemen.

Askotan, denbora errealean gizakian oinarritutako eragozpen mota hauen zerrenda txikiago bat bere kabuz uzten da eta AI-ak nolabait jauzi eta mugak izan behar duela gizakiaren begizta bat izatea baino aukera jakintsuagoa izan behar du. . Ez erori tranpa traidore horretan. Konpromiso sobriak daude tartean.

Kontuan izan AIaren adar hauek:

  • Baliteke AI-ak hutsegite bat eragiten duen errore bat aurkitzea
  • Baliteke IA gainezka egotea eta erantzunik gabe blokeatzea
  • AI-ak portaera irregularra eragiten duten garatzaileen akatsak izan ditzake
  • Baliteke AI inplantatutako birus gaiztoarekin hondatuta egotea
  • AI denbora errealean ziber-hackerrek hartu dezakete
  • AI ezustekotzat jo daiteke konplexutasunengatik
  • AIk konputazionalki erabaki "okerrak" har ditzake (erlatiboki)
  • Eta abar.

Sinetsita nago ikus dezakezula giza-erregimena erabiltzearen artean AI-n soilik menpe egotearen arteko konpromezuak daudela. Konponbidea biak erabiltzea dela iradokitzeko tentazioa baduzu, bi munduetatik onena lor dezakezula azpimarratu nahiko nuke, baina bi munduetatik txarrena ere lor dezakezula. Ez pentsa beti eta ziur bi munduetako onena izango denik.

Agian zertxobait harritu zintuzke goian aipatutako AI-ren alde txarren batek, zehazki AI-a izan zitekeela. ezusteko. Ohituta gaude AI zorrozki logikoa eta matematikoki zehatza izan behar dela sinestera. Hori dela eta, AI guztiz aurreikusgarria izango dela espero dezakezu. AIk zer egingo duen zehazki jakin behar dugu. Aldia, istorioaren amaiera.

Barkatu puxika hau lehertzea baina aurreikusgarritasunaren mito hau okerreko izen bat da. Egungo AIaren tamaina eta konplexutasuna sarritan ezin hobeto aurreikus daitekeen zurrunbiloa da. Hori ikusten ari da gaur egungo Machine Learning (ML) eta Deep Learning (DL) erabilera batzuei buruzko Ethical AI istiluetan. Momentuz pixka bat gehiago azalduko dut.

Gainera, baliteke nire azken analisiari AI sistema egiaztagarriak eta matematikoki zuzenak ziurtatzen saiatzeko datozen joerei buruzko nire azken analisiari AI segurtasunaren azkenen bidez, hemen. esteka hemen.

Hausnarketa Bideko Arauetan

Helburuen eta helburuen nozioa aipatu nuen, arreta handia merezi duen terminologia nahiko zamatuta dagoena.

Hau hausnartu dezakegu:

  • Gizakiak diren helburuak
  • Gizakiak ez diren baina izaki bizidunak diren helburuak
  • Jabetza gisa hartzen diren helburuak

Demagun sistema autonomo bat dugula armatuta. AI sistema autonomoa gidatzeko erabiltzen da eta armagintzarako erabiltzen da. AI-ak dena egiten du Atik Z-ra. Ez dago giza-begiztarako aurreikuspenik. Helburuari dagokionez, AIk aukeratuko ditu helburuak. Ez dago gizakiek ezarritako aurre-targeting bat. Horren ordez, AI programatu da, orokorrean, norakoak diren gizakiak ba ote dauden egiaztatzeko (agian etsai-ekintzak, zenbait uniforme mota eta abar aztertzea).

Orain arte nirekin?

Eszenatoki hau armadun sistema autonomoei buruz deigarri gehien eragiten duena da.

Adierazitako kezka da AIk (gutxienez) egin behar ez lituzkeen hiru gauza egiten ari dela:

  • Gizakiak helburu gisa bideratzea
  • Gizakiaren begiztarik erabili gabe bideratzea
  • Potentzialki ezusteko jardutealy

Kontuan izan AI ezustekoa izatearen inguruko kezkak nabarmentzen direla. Gerta liteke AI-a gizaki mota batzuetara bideratzeko programatu bazen ere, AIren programazioa ez dela uste genuena, eta AI-ak "lagunartekoak" bideratzen amaitzea, AI-ak "etsai gisa" interpretatu behar zituen horietaz gain. ” (edo, agian ordez). Honetaz gain, gizakiaren begiztaren hornidura bat sartzea aukeratzen badugu ere, AIaren ezustekoak esan nahi du AIak gizakiaren begiztarekin hitz egin behar duenean, ez duela egiten. beraz, eta giza esku-hartzerik gabe jokatzen du.

Interesgarria irudituko zaizu Gurutze Gorriaren Nazioarteko Batzordeak (ICRC) kezka mota hauek lantzen dituen arma-sistema autonomoei buruzko hiru puntuko posizio orokorra eskaini duela (ICRC webgunearen arabera):

1. «Ustekabeko arma sistema autonomoak espresuki arautu behar dira out, batez ere haien ondorio bereiziengatik. Hori hobekien lortuko litzateke arma-sistema autonomoen debekuarekin, haien ondorioak behar bezala ulertu, aurreikusi eta azaldu ezin diren moduan diseinatu edo erabiltzen diren moduan.

2. «Gizadia zaintzeko eta zibilak eta borrokalariak hors de combat babesteko nazioarteko zuzenbide humanitarioko arauak zaintzeko gogoeta etikoak kontuan hartuta, Gizakiak jotzeko arma-sistema autonomoak erabiltzea baztertu behar da. Hori hobekien lortuko litzateke pertsonen aurka indarra aplikatzeko diseinatu edo erabiltzen diren arma-sistema autonomoen debekuaren bidez».

3. «Zibilak eta ondasun zibilak babesteko, nazioarteko zuzenbide humanitarioko arauak gordetzeko eta gizateria babesteko, debekatuta egongo ez liratekeen arma-sistema autonomoen diseinua eta erabilera arautu beharko litzateke, besteak beste: helburu moten mugak, hala nola, izaeraz helburu militarrak diren objektuetara mugatzea; iraupenaren, esparru geografikoaren eta erabilera-eskalaren mugak, besteak beste, eraso zehatz bati dagokionez gizakien epaiketa eta kontrola ahalbidetzeko; erabilera egoeren mugak, hala nola, zibilak edo objektu zibilak ez dauden egoeretara mugatzea; rgiza-makina elkarrekintzarako eskakizunak, batez ere giza gainbegiratze eraginkorra eta esku-hartze eta desaktibazio puntuala bermatzeko».

Ikuspegi horri lotuta, Nazio Batuen Erakundeak (NBE) Genevako Arma Konbentzionalei buruzko Hitzarmenaren bidez (CCW) arma autonomo hilgarriei buruzko hamaika printzipio gidari lotesle gabeko hamaika ezarri zituen, sarean argitaratutako txosten ofizialaren arabera (Nazioarteko Humanitarioari dagozkion erreferentziak biltzen dituena). Lege edo DIH baldintzak):

a) Nazioarteko zuzenbide humanitarioa arma-sistema guztietan guztiz aplikatzen jarraitzen du, arma-sistema autonomo hilgarrien garapena eta erabilera balizkoetan barne;

b) Arma-sistemen erabilerari buruzko erabakien giza erantzukizuna mantendu behar da, erantzukizuna ezin baita makinetara transferitu. Hori kontuan hartu behar da arma-sistemaren bizi-ziklo osoan;

c) Giza-makinen arteko elkarrekintzak, hainbat forma izan ditzakeen eta arma baten bizitza-zikloaren hainbat fasetan gauzatu daitezkeenak, bermatu beharko luke arma-sistemen balizko erabilera arma-sistema autonomo hilgarrien arloan sortzen ari diren teknologietan oinarrituta. aplikagarria den nazioarteko zuzenbidea betetzea, bereziki IHL. Giza eta makina elkarrekintzaren kalitatea eta hedadura zehazteko, faktore sorta bat hartu behar da kontuan, testuinguru operatiboa eta arma-sistemaren ezaugarriak eta gaitasunak barne;

d) CCWren esparruan sortzen ari diren arma-sistemak garatzeko, hedatzeko eta erabiltzeko erantzukizuna bermatu behar da aplikagarria den nazioarteko zuzenbidearen arabera, barne sistema horiek giza aginte- eta kontrol-kate arduratsu baten barruan funtzionatuz;

(e) Estatuek nazioarteko zuzenbidearen arabera dituzten betebeharren arabera, arma, bitarteko edo guda-metodo berri bat aztertzean, garatzen, eskuratzean edo hartzerakoan, egoera batzuetan edo guztietan erabiliko den erabaki beharko da. nazioarteko legediak debekatuta;

(f) Arma sistema autonomo hilgarrien alorrean sortzen ari diren teknologietan oinarritutako arma-sistema berriak garatzean edo eskuratzean, segurtasun fisikoa, babes fisikoak ez diren egokiak (piratearen aurkako ziber-segurtasuna barne edo datuak faltseatzea barne), talde terroristek eskuratzeko arriskua. eta ugaltzeko arriskua kontuan hartu behar da;

g) Arriskuen ebaluazioak eta arintze-neurriak edozein arma-sistematan sortzen ari diren teknologien diseinu, garapen, proba eta hedapen-zikloaren parte izan behar dira;

h) Kontuan hartu behar da arma autonomo hilgarrien sistemen alorrean sortzen ari diren teknologiak erabiltzea DIH eta aplikagarriak diren nazioarteko beste legezko betebeharrak betetzen direla bermatzeko;

(i) Balizko politika-neurriak lantzean, arma-sistema autonomo hilgarrien arloan sortzen ari diren teknologiak ez dira antropomorfizatu behar;

j) Eztabaidek eta CCWren testuinguruan hartutako balizko politika-neurriek ez dute oztopatuko teknologia autonomo adimentsuen erabilera baketsuen aurrerapena edo sarbidea;

k) CCWk esparru egokia eskaintzen du arma autonomo hilgarrien sistemen alorrean sortzen ari diren teknologien gaiari aurre egiteko, Hitzarmenaren helburu eta helburuen testuinguruan, zeinak behar militarraren eta kontsiderazio humanitarioen arteko oreka lortu nahi duen.

Aurkitzen garen etenaldia

Gerra-lege, gatazka armatu-lege edo IHL (Nazioarteko Lege Humanitarioak) gida ezinbesteko eta itxaropentsu gisa balio dute, armatuta dauden sistema autonomoen etorrerari buruz zer egiten saia gaitezkeen aztertzeko, dela giltzarri-diseinuaren bidez, dela. ondorengo metodoen bidez.

Zintzotasunez nahi dugu arma-sistema autonomo hilgarrien debekua zorrozki eta esaneko betea izatea. Arazoa da debekurik zintzoenetako batean maltzurkeriaz mugitzeko gela asko aurkitzea. Esaten dutenez, arauak hautsi behar dira. Apustu dezakezu gauzak laxoak diren lekuetan, riffraffek hutsuneak argituko dituela eta keinu-keinu egiten saiatuko direla arauen inguruan.

Hona hemen kontuan hartu beharreko balizko hutsune batzuk:

  • Ez-Letalaren erreklamazioak. Egin ez-hilgarria arma-sistema autonomoak (ondo dirudi debekuaren mugatik kanpo dagoenez), eta gero hilgarri bihur zaitezke (azken momentuan debekutik kanpo geratuko zara).
  • Sistema autonomoaren erreklamazioak soilik. Eutsi debekua hilgarrietan oinarritutako sistema autonomoak ez eginez, bitartean, egin aurrerapen handirik (oraindik) armatuta ez dauden eguneroko sistema autonomoak diseinatzen, baina armak izatera berritu ahal izango dituzula.
  • Bat bezala Integratu ezaren erreklamazioak. Batere armatuta ez dauden sistema autonomoak landu, eta unea iristen denean, armagintza piggy-back, hala nola bi elementu bereizi direla gogor argudiatzen saia zaitezke eta, beraz, ez direla bat-bateko baten barruan sartzen arma sistema autonomoa edo bere lehengusua.
  • Autonomoa Ez dela Erreklamazioak. Egin ahalmen autonomorik ez dirudien arma-sistema. Utzi lekua ustez autonomoa ez den sistema honetan AI-n oinarritutako autonomia erortzeko. Beharrezkoa denean, konektatu autonomia eta prest zaude jaurtitzeko (ordura arte, antza, ez zenuen debekua urratzen).
  • Bestelakoa

Arma-sistema autonomo hilgarriak erabat debekatu nahian adierazitako beste zailtasun ugari daude. Horietako batzuk gehiago azalduko ditut.

Zenbait adituk diote debekua ez dela bereziki erabilgarria eta, horren ordez, arauzko xedapenak egon beharko lirateke. Ideia da tramankulu hauek baimenduta baina zorrotz kontrolatuta egongo direla. Legezko erabilerak zehazten dira, bideratzeko legezko moduak, legezko gaitasun motak, legezko proportzionaltasuna eta antzekoekin batera.

Haien ustez, debeku zuzena burua hondarrean sartzea eta gelako elefantea existitzen ez den itxura egitea da. Auzi honek, ordea, odola irakiten uzten du debekua ezarriz sistema mota hauek jarraitzeko tentazioa nabarmen murrizteko gai zarela kontra egiten dutenen argudioarekin. Noski, batzuek debekua erakutsiko dute, baina, behintzat, espero dugu gehienek ez. Ondoren, zure arreta lurpekoengan zentratu dezakezu eta ez duzu zure arreta denongan zatitu behar.

Eztabaida hauek bueltaka doaz.

Askotan adierazitako beste kezka bat da onek debekua betetzen badute ere, txarrak ez duela egingo. Honek ona jarrera kaskarrean jartzen du. Txarrek sistema autonomo mota hauek izango dituzte eta onek ez. Gaiztoek dauzkatela agerian utzitakoan, berandu izango da onak atzemateko. Laburbilduz, egin beharreko gauza burutsu bakarra suarekin suarekin borrokatzeko prestatzea da.

Dissuasio klasikoa ere badago. Onek sistema autonomo armatuak egitea aukeratzen badute, gaiztoak liskar batean sartu nahi ez izateko erabil daiteke. Edo onak hobeto armatuko dira eta, horrela, txarrak disuadituko dituzte, edo ona prest egongo da, beharbada, gaiztoek sistema horiek ezkutuan asmatu dituztela agerian uzten dutenean.

Kontagailu horien kontrako bat da sistema autonomo armatuak eginez, arma-lasterketa bat egiten ari zarela. Beste aldeak berdina izatea bilatuko du. Teknologikoki horrelako sistemak berriro sortzeko gai ez badira ere, orain gai izango dira "onen" planak lapurtu, goi-teknologiako erraiak alderantzizko ingeniaritzak egin edo egiazkotzat ikusten dutena imitatu ahal izango dute. lana burutzeko modua.

Aha, erantzun batzuek, horrek guztiak gatazkak murriztea ekar dezake elkarren itxura baten bidez. A aldeak badaki B aldeak sistema autonomoen arma hilgarri horiek dituela, eta B aldeak badaki A aldeak dituela, baliteke estu eseri eta kolperik ez etortzea. Horrek elkarrekiko bermatutako suntsipenaren (MAD) bibrazioen aura bereizgarria du.

Eta abar.

AI Autonomian

Ziurta dezagun orrialde berean gaudela gaurko AIaren izaerari buruz.

Gaur egun ez dago sentikorra den AIrik. Ez dugu hau. Ez dakigu AI sentikorra posible izango den. Inork ezin du ongi iragar AI sentikorra lortuko dugun ala ez, ezta AI sentikorra nolabait miragarriki berez sortuko den supernoba kognitibo konputazional baten moduan (normalean berezitasuna deitzen dena, ikus nire estaldura hemen. esteka hemen).

Zentratzen ari naizen AI mota gaur egun daukagun AI ez sentikorra da. Buruz basatian espekulatu nahi bagenu sentikorra AI, eztabaida hau zeharo beste norabide batean joan liteke. AI sentikor bat giza kalitatekoa izango litzateke. Kontuan izan beharko zenuke AI sentikorra gizakiaren baliokide kognitiboa dela. Are gehiago, batzuek IA super-adimentsua izan genezakeela espekulatzen dutenez, pentsa daiteke AI hori gizakiak baino adimentsuagoa izan daitekeela (AI super-adimentsua aukera gisa aztertzeko, ikus estaldura hemen).

Utz ditzagun gauzak lurrean gehiago eta kontuan izan ditzagun gaur egungo AI konputazionala sentikorra.

Konturatu gaur egungo IA ez dela gai giza pentsamenduaren parean "pentsatzeko". Alexa edo Sirirekin elkarreragiten duzunean, elkarrizketa gaitasunak giza gaitasunen antzekoak dirudite, baina errealitatea da konputazionala dela eta giza ezagutza falta dela. AIaren azken aroak asko erabili ditu Machine Learning (ML) eta Deep Learning (DL), zeinak konputazio-ereduen parekatzea baliatzen baitute. Horrek gizakiaren antzeko joerak dituzten AI sistemak ekarri ditu. Bien bitartean, gaur egun ez dago zentzu arruntaren itxura duen AIrik eta giza pentsamendu sendoaren harridura kognitiborik ere ez duenik.

Kontuz ibili gaur egungo IA antropomorfizatzearekin.

ML/DL eredu konputazionalaren parekatze modu bat da. Ohiko planteamendua erabakiak hartzeko zeregin bati buruzko datuak biltzea da. Datuak ML/DL ordenagailu ereduetara elikatzen dituzu. Eredu horiek eredu matematikoak aurkitu nahi dituzte. Eredu horiek aurkitu ondoren, aurkituz gero, AI sistemak eredu horiek erabiliko ditu datu berriak topatzerakoan. Datu berriak aurkeztean, datu "zahar" edo historikoetan oinarritutako ereduak aplikatzen dira egungo erabakia emateko.

Uste dut hau nora doan asma dezakezula. Erabakien eredua hartzen ari diren gizakiek alborapen txarrak sartu badituzte, litekeena da datuek modu sotil baina esanguratsuan islatzea. Machine Learning edo Deep Learning konputazio-ereduen parekatzea besterik ez da saiatuko datuak matematikoki imitatzen. Ez dago zentzu arruntaren edo beste alderdi sentikorren itxurarik AI-n landutako modelizazioaren berez.

Gainera, AI garatzaileak agian ez dira konturatzen zer gertatzen ari den. ML/DL-ko matematika arkanoak zaildu lezake orain ezkutuko alborapenak atzematea. Ziurrenik espero eta espero zenuke AI garatzaileek lurperatuta egon daitezkeen alborapenak probatuko dituztela, nahiz eta badirudi baino zailagoa den. Aukera sendoa dago, nahiz eta proba nahiko zabalak izan, ML/DL ereduak parekatzeko ereduetan oraindik txertatutako alborapenak egongo direla.

Garbage-in garba-out-en esaera ospetsua edo gaiztoa zertxobait erabil dezakezu. Kontua da, hau AIaren barnean murgiltzen diren alborapenak maltzurki sartzen diren alborapenen antzekoagoa da. AIren algoritmoen erabakiak hartzea (ADM) axiomatikoki desberdintasunez kargatzen da.

Ez da ona.

Oinarrizko aurrekari erantsi horrekin, sistema autonomoei eta armagintzaren gaiari helduko diogu berriro ere. Lehenago ikusi genuen AI sistema autonomoaren osagaian sartzen dela eta armagintzaren osagaian ere sar daitekeela. Gaur egungo IA ez da sentikorra. Hau errepikatzea merezi du eta hori nabarmenduko dut gai hauei buruzko informazio gehiago lortzeko.

Azter ditzagun agertoki batzuk hau erabakigarria nola den ikusteko. Une batean gai honen inguruko gerra garaiko orientaziotik aterako naiz eta beste gizarte-ingurune asko nola barneratzen dituen erakutsiko dut. Egon zaitez horren arabera.

AI-n oinarritutako sistema autonomo bat, esate baterako, ibilgailu autonomo bat, armekin zerikusirik ez duela esango dugu, toki normal batean zehar egiten ari da. Gizaki bat dator ibilgailu autonomoa erabiltzera. Pertsona hori ustekabeko arma batekin armatuta dago. Demagun agertoki zehatz honetan eztabaidaren mesedetan pertsonak zerbait txarra duela buruan. Pertsona ibilgailu autonomoan sartzen da (arma daramala, ezkutatuta edo ezkutatuta, edonola ere).

Ibilgailu autonomoa gidariek eskatutako edozein helmugara joaten da. Kasu honetan, AI-k bidaiari hau programazioz eramaten ari da bilketa-kokapen batetik izendatutako helmugara, egunero dozenaka edo ehunka bidaiatan egin duen bezala.

Hau giza gidaria eta gizakiak gidatutako ibilgailu bat izan balitz, seguru asko, gizakiaren gidaria bidaiaria armatuta dagoela eta asmo txarrak dituela konturatzeko aukera dago. Giza gidariak ibilgailua gidatzeari uko egin diezaioke. Edo giza gidaria polizia-etxera gidatu dezake. Edo agian giza gidaria bidaiari armatua menperatzen saiatuko da (salatutako kasuak badaude) edo bidaiaria bere arma erabiltzea disuaditzen. Nahiko konplikatua da, eta edozein aldaera egon daiteke. Zaila izango zenuke horrelako egoera konpontzeko erantzun zuzen bakarra dagoela baieztatzea. Zoritxarrez, egoera kezkagarria eta, jakina, arriskutsua da.

Kasu honetan AI-a nekez programatuko da aukera horietarako. Laburbilduz, bidaiari armatuak bere arma erabili ahal izango du, ibilgailu autonomoaren barruan eginez, gidatzeko bidaian zehar. AI gidatzeko sistemak bidaiatzen jarraituko du eta ibilgailu autonomoak bidaiariaren adierazitako izendapenera jarraituko du (helmuga bestela mugaz kanpo jotzen ez zela suposatuz).

Gaur egungo AI gidatzeko sistema gehienek konputazionalki bidera bideratuko lukete soilik eta ez txirrindulariaren ahaleginetan.

Gauzak hau baino okerrera egin dezakete.

Demagun norbaitek janari mordoa behartsuentzako janari gehigarria hartzen duen toki batera eraman nahi duela. Pertsonak ibilgailu autonomoa eskatzen du eta janari-poltsak ibilgailuaren atzeko eserlekuan jartzen ditu. Ez dira ibilaldira joango eta ibilgailu autonomoa erabiltzen ari dira janari-poltsak entregatzeko.

Oso ondo dirudi.

Imajinatu pertsona zital batek ibilgailu autonomoan arma-mota batzuk jartzea aukeratzen duela, janari-poltsen ideia baketsuagoa baino. Uste dut zer gerta daitekeen asma dezakezula. Hau da nire zutabeetan behin eta berriz gomendatzen ari naizen kezka eta aurretiaz aurre egin behar diogula abisatzen dudana.

Eszenatoki mota hauei emandako erantzun bat da, agian, ibilgailu autonomo guztiak programatu litezkeela kamerak eta beste sentsore batzuk erabiltzeko, bidaiari potentzial bat armatuta dagoen eta asmo gaiztoak dituen detektatzeko. Agian AI programatuta egongo litzateke horretarako. Edo AIak elektronikoki eta isilean ohartarazten dio urruneko giza operadoreari, gero kameren bidez bisualki eta, bestela, bidaiariak aztertu eta, agian, elkarreragiteko. Guztia zizare-lata konplexu eta potentzialki konponezin baten parte da, pribatutasun-arazo biziak eta AI Etikoko balizko beste kezka ugari sortzen dituelako. Ikusi nire estaldura helbidean esteka hemen.

Antzeko beste alternatiba bat da AIak txertatutako programazio etikoren bat duela, AIari normalean giza erabakiak hartzen dituztenentzat gordeta dauden epai etiko edo moralak egiteko gaitzen saiatzen dena. AI-n txertatutako etika konputazionalaren pronostikoen garagardo mota hauek aztertu ditut, ikusi esteka hemen esteka hemen.

Gudu-eszenatoki batera itzuliz, irudikatu arma-sistema autonomo hilgarri bat borroka-eremu baten gainean gurutzatzen ari dela. AI sistema autonomoa funtzionatzen ari da. AI armak erabiltzen ari da ontzian. Lehenago pentsatu genuen AI-a programatu zitekeela itxuraz etsai zirudien mugimenduak edo baliozko borrokalaritzat jotzen diren giza helburuen beste adierazle batzuk bilatzeko.

AI horrek berak izan behar al du etikan orientatutako osagai motaren bat, gizakiaren begiztaren arabera konputazionalki aztertzen ahalegintzen dena, gizakiaren begiztaren ordez, zentzu batean jokatuz?

Batzuek baietz diote, jarrai dezagun. Batzuk beldurrez atzera egiten dute eta ezinezkoa dela edo bestela gizatasunaren santutasuna urratzen duela diote.

Beste zizare lata bat.

Ondorioa

Gai honetan interesa duzuenontzat, askoz gehiago dago eztabaidatzeko.

Askotariko bat dastatuko dizut.

Normalean gizaki bat gerra garaian gertatzen den edozergatik erantzule izango dela espero dugu. AI arma-sistema autonomo bat kontrolatzen ari bada edo beharbada armatua izan den sistema autonomo bat kontrolatzen ari bada, eta sistema honek zentzugabea dela uste den gudu-zelaian zerbait egiten badu, nori edo zeri leporatu behar zaio?

Argudia dezakezu AI erantzukizuna eskatu behar dela. Baina, hala bada, zer esan nahi du horrek zehazki? Oraindik ez dugu gaur egungo IA pertsona juridikoaren gorpuztetzat hartzen, ikusi nire azalpena hemen esteka hemen. AIren kasuan astoari buztana astindurik ez. Beharbada, AI noizbait sentikorra bihurtzen bada, horretan saia zaitezke. Ordura arte, irisgarri samarra da hau (gainera, zer-nolako zigor edo ondorio izango lituzke AIak, ikusi nire analisia hemen esteka hemen esteka hemen, adibidez).

AI-a ez bada susmagarri erantzule, orduan esan genezake AI-a asmatu duten gizakiak edo gizakiak erantzukizuna eskatu behar duela. Egin al dezakezu hori AI sistema autonomo bat besterik ez bazen eta armagintzarekin batera duten gizaki batzuk etorri ziren? AI garatzaileen atzetik joaten al zara? Edo IA zabaldu zutenak? Edo aktore armatzailea besterik ez?

Nire eztabaida bizian icebergaren punta bakarrik ukitu dudala uste duzulakoan nago.

Oraingoz, goazen diskurtso honi amaiera emanez. Agian gogoratuko duzu John Lyly sartu zela Euphues: Wit-aren anatomia 1578an gogoangarri esan zuen dena bidezkoa dela maitasunean eta gerran.

Izango zuen gogoan arma-sistema autonomoen sorrera eta, era berean, armatuta dauden sistema autonomoen sorrera?

Zalantzarik gabe, hau gure buruan jarri behar dugu, berehala.

Iturria: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- arma-sistemak-eta-ai-gidatutako-sistema-autonomoen-ustiapena-deabruz-armatuta dauden-/