Sistema autonomoak biltzen dituen Stanfordeko AI Segurtasun Tailerrean erakutsitako azken joeren artean AI Segurtasunaren garrantzia

AI segurtasuna ezinbestekoa da.

Zaila izango zenuke itxuraz bestela argudiatzea.

Nire zutabeen irakurleek ondo dakitenez, behin eta berriro azpimarratu dut AI segurtasunaren garrantzia, ikusi esteka hemen. Normalean, AI segurtasuna sistema autonomoen testuinguruan planteatzen dut, hala nola ibilgailu autonomoek auto gidatzen dituzten autoak barne, eta beste robot sistema batzuen artean. Hori eginez gero, AIren segurtasunak barneratzen dituen bizitza edo heriotzaren ondorioak nabarmentzen ditu.

Mundu osoan IAren adopzioaren erritmo hedatua eta ia frenetikoa kontuan hartuta, amesgaizto potentzial baten aurrean gaude, baldin eta AIren segurtasun-neurri egokiak irmo ezartzen eta aldian-aldian praktika aktiboan jartzen ez badira. Zentzu batean, gizartea benetako ahate eserita da gaur egungo AI-ren uholdeen ondorioz, AIren segurtasuna gaizki ezartzen dutenak, tarteka AI segurtasun-neurri eta instalazio nahikoak baztertuz.

Zoritxarrez, beldurgarria denez, AI segurtasunari arreta ez dago inon behar bezain garrantzitsua eta hedatua.

Nire estalduran, AI segurtasunaren azpian dimentsio ugari daudela azpimarratu dut. Alde teknologikoak daude. Enpresa eta merkataritza alderdiak daude. Elementu juridikoak eta etikoak daude. Eta abar. Ezaugarri horiek guztiak elkarrekin lotuta daude. Enpresek AI segurtasunean inbertitzeak duen balioaz jabetu behar dute. Gure legeek eta ohitura etikoek AIren segurtasunari buruzko gogoetak jakinarazi eta zabaldu behar dituzte. Eta AIren segurtasun-arau eta praktikak hartzen laguntzeko eta sustatzeko teknologia onartu eta aurreratu egin behar da AI segurtasun-gaitasun gero eta handiagoak lortzeko.

AI segurtasunari dagokionez, ez dago atseden hartzeko momenturik. Aurrera egiten jarraitu behar dugu. Izan ere, mesedez, izan guztiz jakitun hori ez dela egoera bakarra, baizik eta etengabeko eta etengabeko bilaketa bat, ia amaigabea dena, beti hobetzeko helburuarekin.

AIren segurtasunaren panorama apur bat azaldu nahi dizut eta, ondoren, AIren segurtasunari buruzko azken gertaera batean jasotako funtsezko aurkikuntza eta informazio funtsezko batzuk zurekin partekatu nahi nituzke. Joan den astean Stanford Center for AI Safety-en ekitaldi bat izan zen eta egun osoko AI Safety Workshop gisa egin zen 12ko uztailaren 2022an, Stanford Unibertsitateko campusean. Zorionak Anthony Corso doktoreari, Stanford Center for AI Safety-eko zuzendari exekutiboari eta hango taldeari, ekitaldi bikaina antolatu izanagatik. "SAFE" izenez ere ezaguna den Stanford Center for AI Safety-ari buruzko informazioa lortzeko, ikus esteka hemen.

Lehenik eta behin, Tailerreko emaitzetan murgildu aurretik, egin dezagun paisaiaren ikuspegi orokorra.

Inteligentzia Artifizialaren segurtasuna gero eta funtsezko kezka gisa nola azaleratzen ari den adierazteko, utzi aste hasieran Erresuma Batuko Adimen Artifizialaren Gobernu Bulegoak argitaratutako politika-dokumentu berri bat aipa dezadan. IA erregulatzeko berrikuntzaren aldeko ikuspegia ezartzea AIren segurtasunari buruzko ohar hauek barne hartzen zituen: "IAren erabileren zabalerak segurtasunean eragin handia duten funtzioak barne har ditzake, eta arrisku hori agerikoa den arren zenbait sektoretan, hala nola osasungintzan edo azpiegitura kritikoetan, aurretik ezusteko aukera dago. segurtasunaren ondorioak beste arlo batzuetan gauzatzea. Hori dela eta, zenbait arautzailerentzat segurtasuna funtsezko kontua izango den arren, garrantzitsua izango da arautzaile guztiek testuinguruan oinarritutako ikuspegia hartzea IAk beren sektorean edo domeinuan segurtasunerako arriskua izan dezakeen probabilitatea ebaluatzeko eta proportzionala hartzea. arrisku hori kudeatzeko planteamendua».

Aipatutako politika-dokumentuak AIren segurtasunari buruz pentsatzeko modu berriak eskatzen ditu eta AIren segurtasunari buruzko ikuspegi berriak defendatzen ditu irmoki. Honek gure trebetasun teknologikoa areagotzea barne hartzen du AIren segurtasun-gogoetak eta gorpuztea AI diseinatzeko bizi-ziklo osoan zehar, AI diseinu, garapen eta hedapen-esfortzuen fase guztien artean. Datorren astean nire zutabeetan proposatutako azken AI arauzko zirriborro honi buruzko xehetasun gehiago azalduko ditut. Ikusi esteka hemen esteka hemen, Adibidez.

AI segurtasunari buruz gogoan pentsatzean, oinarrizko txanpon bat neurketaren eginkizuna da.

Ikusten duzu, badago esaera generiko famatu bat, hainbat testuingurutan entzun izana, hots, ezin duzula neurtzen ez duzun hori kudeatu. AI segurtasuna neurtu beharreko zerbait da. Neurgarria izan behar da. Neurketa egokirik gabe, AI segurtasuna betetzen ari den ala ez galdetzea frogatu ezin diren argudioen argudio hutsa baino ez da.

Eseri hurrengo puntu honetarako.

Bihurtzen da gaur egun gutxik ari direla aktiboki neurtzen beren AI segurtasuna eta askotan keinu-keinu bat baino gehiago egiten dutela, jakina, beren AI sistemek AI segurtasun osagaiak barneratzen dituztela. Planteamendu ahulak erabiltzen ari dira. Ahultasuna eta ahuleziak ugariak dira. AI segurtasunari buruzko prestakuntza falta erabakigarria da. AI segurtasunerako tresnak, oro har, urriak edo arkanoak dira. Enpresa eta gobernuko lidergoak askotan ez du ezagutzen eta gutxietsi egiten du AIaren segurtasunaren garrantzia.

Egia esan, itsutasuna eta arreta axolagabea gertatzen dira AI sistema bat izugarri okertzen den arte, lurrikara bat gertatzen denean eta bat-batean jendeak begiak irekitzen dituenean, gertaera hunkigarriari aurre egiteko prestatu eta jasateko prest egon beharko lukeen antzera. Une horretan, oso gaizki joan den AIaren kasuan, maiz AIren segurtasun-gurdira salto egiteko presa zoroa izaten da, baina bultzada eta gogoeta pixkanaka murrizten doaz denborarekin, eta lurrikara horiek bezala beste handi batean gaztetzen dira. harrigarri.

Kaliforniako Hegoaldeko Unibertsitateko (USC) irakasle eta USCko AI laborategi aitzindari bateko zuzendari exekutiboa nintzenean, sarritan aprobetxatu genuen lurrikararen analogia Kalifornian izandako lurrikaren prebalentzia asko ulertzen zenetik. Analogiak modu egokian bihurtu zuen AI segurtasunaren onarpena behin eta berriro hartzea gauzak egiteko modu desegoki eta deskonektua. Gaur egun, Stanford Fellow gisa funtzionatzen dut eta, horrez gain, AI estandar eta AI gobernatzeko batzordeetan ere parte hartzen dut nazioarteko eta nazio entitateetarako, hala nola WEF, NBE, IEEE, NIST eta beste batzuentzat. Jarduera horietatik kanpo, duela gutxi, Arrisku Kapital (VC) enpresa handi batean zuzendari nagusi gisa aritu nintzen eta gaur egun AI startup-en tutore gisa eta AI startup-en lehiaketetan pitch epaile gisa aritzen naiz. Alderdi hauek aipatzen ditut AIaren segurtasunaren ezinbesteko izaeraz eta AIaren segurtasunaren zereginaz AIaren eta gizartearen etorkizunean IAren segurtasunaren zereginaz, eta AI segurtasunarekin lotutako startup-etan eta erlazionatutako AIren segurtasunari lotutako startup-etan askoz ere inbertsio gehiago egin behar izateagatik. ikerketa-ahaleginak.

Guztia esanda, AIren segurtasunari etekinik handiena ateratzeko, enpresek eta gobernuek bezalako beste entitateek AIaren segurtasuna bereganatu behar dute eta, ondoren, etengabe jarraitu. Ontzia egonkortu. Eta mantendu ontzia ontzi-forman.

Arin ditzagun aldartea eta kontuan izan dezagun gaur egungo AIren segurtasunaren egoera adierazten saiatzean erabiltzen ditudan gogokoenak.

Nire AI segurtasun multzoa daukat adopzio mailak noizean behin erabiltzea gustatzen zaidala. Ideia da AI sistema jakin bati, batez ere sistema autonomo bati, atxikitzen zaion edo agian baztertzen ari den AI segurtasun maila edo magnitudea erraz karakterizatzea. Hau bide azkar bat besterik ez da interesgarri den kasu jakin batean AI segurtasunarekin egiten ari den seriotasuna eta konpromisoa nabarmen identifikatu eta etiketatzeko.

Labur-labur azalduko dut nire AIren segurtasun mailak eta, ondoren, azken Tailerra eta hari lotutako ikuspegiak aztertzera pasatzeko prest egongo gara.

Nire eskala AI segurtasunaren altuenetik edo gorenetik doa eta, ondoren, AI segurtasunaren baxuenera edo txarrenera doa. Erosoa iruditzen zait mailak zenbatzea eta, hortaz, goikoena 1. postuan dago, gutxien dagoena, berriz, azkena edo 7.a. Ez duzu suposatu behar maila bakoitzaren artean distantzia lineal egonkorra dagoenik, beraz, kontuan izan AIren segurtasun-maila eta esfortzua sarritan magnitude handiagoak edo txikiagoak direla bilatzen ari zaren eskalako tokiaren arabera.

Hona hemen nire AI segurtasunari buruzko adopzio-mailen eskala:

1) Egiaztagarria den AI Segurtasun sendoa (zorrotz frogagarria, formala, gogortasuna, gaur egun hori arraroa da)

2) Leun sendoa AI Segurtasuna (partzialki frogagarria, erdi-formala, guztiz aurrera doana)

3) Ad Hoc AI Segurtasuna (ez da kontuan hartu frogagarritasuna, ikuspegi informala, gaur egun oso zabalduta)

4) Lip-Service AI Segurtasuna (apurka, oro har hutsa, marjinala, arduragabea, oro har)

5) Faltsutasuna AI Segurtasuna (Itxura engainatzea da, itxurakeria arriskutsua)

6) AI Segurtasuna guztiz baztertua (Guztiz ahaztuta, zero arreta, arrisku handiko joera)

7) AI segurtasun eza (Rolak iraultzea, benetan arriskuan jartzen duen AI segurtasuna, maltzurra)

Ikertzaileak normalean eskalaren goiko partean zentratzen dira. Matematikoki eta konputazionalki AI segurtasun frogagarria asmatzeko eta bermatzeko moduak bilatzen ari dira. AIren eguneroko praktiken lubakietan, tamalez Ad Hoc AI Segurtasuna ohikoa izan ohi da. Zorionez, denborarekin eta aipatutako dimentsio guztietatik (adibidez, teknologikoa, negozioa, juridikoa, etikoa, eta abar) motibazioarekin, orratza hurbildu ahal izango dugu AI sistemetan oinarrian errotuta egon behar den zorroztasun eta formaltasunera.

Litekeena da azpian dauden kategoriak edo mailak harrituta gelditzea Ad Hoc AI Segurtasuna maila.

Bai, gauzak nahiko itsusiak izan daitezke AI segurtasunean.

AI sistema batzuk AI segurtasunari ezpain-zerbitzu moduko ikuspegi batekin eginak daude. AI-an han edo hemen zipriztindutako AI segurtasun-elementuak daude AIren segurtasun-xedapenak ematen ari direla diotenak, nahiz eta dena apur bat den, oro har hutsunea, marjinala eta jarrera axolagabea islatzen duen. Ez dut inpresioa utzi nahi AI garatzaileak edo AI ingeniariak ezpain-zerbitzuaren lurreratzearen erantzule bakarrak direla. AIren ahaleginak kudeatzen eta gainbegiratzen dituzten negozio edo gobernuko buruzagiek erraz usurpa dezakete AIren segurtasuna gorpuzteko behar diren balizko kostu eta baliabideen kontsumorako edozein energia edo joera.

Laburbilduz, buruan daudenak ez badaude prest edo AI segurtasunaren garrantziaz jabetzen ez badira, hau da heriotzaren benetako muxua AI segurtasuna jokoan sartu nahi duen beste edonorentzat.

Ez dut deserosoa iruditu nahi, baina are maila okerragoa dugu ezpainen sailkapenaren azpian. AI sistema batzuetan, AI segurtasuna modu gisa ezartzen da faltsutasuna, nahita besteei engainatzea AI segurtasunaren gorpuzketak ezarri eta aktiboki funtzionatzen dutela sinestera. Espero zenezakeen bezala, emaitza arriskutsuak ugariak dira, beste batzuek AI segurtasuna existitzen dela suposatuko dutelako, hain zuzen ere ez denean. Adar legal eta etiko handiak erloju-bonba bat bezalakoak dira kasu hauetan.

Beharbada, ia berdin kezkagarria da AIren segurtasun falta osoa AI Segurtasuna guztiz baztertua kategoria. Zaila da esatea zein den okerragoa, AI segurtasun faltsuak agian AI segurtasunaren zati bat eskaintzen duena, nahiz eta oro har AI segurtasuna edo AI segurtasunaren erabateko hutsunea adierazten duen arren. Hau bi gaitz txikienen arteko borroka dela kontsideratu dezakezu.

Kategorien azkena benetan hozgarria da, AI segurtasunaren hoztasunaren amildegiaren hondoan ez zaudela suposatuz. Kategoria honetan kokatzen da unsafe AI segurtasuna. Hori oximoron bat dirudi, baina esanahi zuzena du. Oso pentsa daiteke rol iraulketa bat gerta daitekeela, AIren segurtasun-helburuetarako pentsatutako AI sistema batean gauzatze batek AIan erabat ez-segurua den elementu bat ironikoki eta arriskutsu txertatzen duela. Hori batez ere erabilera bikoitzeko AI gisa ezagutzen diren AI sistemetan gerta daiteke, ikusi nire estaldura helbidean esteka hemen.

Gogoratu latinezko botoa beti bete behar duzula lehen ez-nocere, Hipokratikoen zin klasikoa txertatzen duena, lehenik eta behin, kalterik ez egiteko.

Badira AIren segurtasuna beharbada asmorik onenekin jartzen dutenak, eta, hala ere, oinari tiro egin eta AI-a ahultzen dutenak, segurua eta arriskutsua den zerbait sartuta (eta horrek, metaforikoki, gainerako eragile eta azken erabiltzaile guztien oinak tirokatzen ditu). ere). Jakina, gaiztoek ere bide hori har dezakete, eta, beraz, edozein modutan izan behar dugu edozein AIren segurtasuna edo joera ez-segurua detektatzeko eta egiaztatzeko, AIren segurtasunari eskainitako zatiak barne.

AI segurtasunaren Troiako Zaldia da batzuetan AI segurtasunaren itxurapean AI segurtasuna sartzeak AI AI ez-seguruz betetako saski izugarri batean bihurtzen duela.

Ez da ona.

Ados, uste dut lehen aipatutako joera eta AIren segurtasunaren panoramari buruzko ikuspegi orokorrak zure gosea piztu duela. Orain prest gaude bazkari nagusira joateko.

Laburpena eta gogoetak Stanford Workshop-ari buruz AI segurtasunari buruz

Jarraian, laburpen labur bat eskaintzen dut Stanford Center for AI Safety-ek egin duen AI Segurtasunari buruzko azken tailerrean aurkeztutako ikerketa-ahaleginen analisiarekin batera.

Zintzoki gomendatzen zaituzte erlazionatutako paperak irakurtzeko edo bideoak ikusteko erabilgarri daudenean (ikusi lehenago Zentroaren webgunerako zerrendatu dudan esteka, eta behean nire laburpenean esteka gehigarri batzuk eman ditut).

Gainera, hurrenez hurren, Lantegiko ikertzaile eta aurkezleei eskatzen diet, mesedez, konturatu dezatela irakurleen edo ikusleen gosea piztea besterik ez dudala bilatzen laburpen honetan eta ez dudala helarazitako guztia estaltzen. Horrez gain, aurkeztutako lanari buruzko nire ikuspuntu bereziak adierazten ari naiz eta nire zutabearen nire estiloarekin edo txukuntasunarekin bat datorren materialari gehitzea edo zapore gehigarria ematea aukeratzen ari naiz, hitzaldi bakoitzean zehatz-mehatz identifikatutakoa zorrozki transkribatzea edo zehaztea baino. Eskerrik asko zentzu honetan duzun ulermenagatik.

Orain Tailerrean egindako aurkezpenen sekuentzia berean jarraituko dut. Saioaren izenburua eta aurkezlea(k) zerrendatzen ditut, eta, ondoren, nire pentsamenduak partekatzen ditut, eztabaidatutako gaiaren funtsa laburbiltzen edo biltzen saiatzen direnak eta horren inguruan nire iritziak ematen dituztenak.

  • Saioaren izenburua: "Robotaren autonomia segururako exekuzio denboraren jarraipena"

Marco Pavone doktorearen aurkezpena

Marco Pavone doktorea Stanfordeko Unibertsitateko Aeronautika eta Astronautikako irakasle elkartua da, eta NVIDIAko Ibilgailu Autonomoen Ikerketako zuzendaria, baita Stanfordeko Sistema Autonomoen Laborategiko zuzendaria eta Stanfordeko Automozio Ikerketa Zentroko zuzendarikidea ere.

Hona hemen nire laburpen laburra eta hitzaldi honi buruzko lehen gogoetak.

Gaur egungo Machine Learning (ML) eta Deep Learning (DL) sistemen arazo ikaragarri batek banaketaz kanpoko agerraldiei (OOD) aurre egitea dakar, batez ere sistema autonomoen kasuan, hala nola auto gidatzen duten autoak eta auto gidatzen duten beste ibilgailu batzuk. Ibilgailu autonomo bat mugitzen ari denean eta OOD instantzia batekin topo egiten duenean, egin beharreko erantzun-ekintzek hil ala biziko emaitzen arteko aldea adieraz dezakete.

Nire zutabean asko landu ditut AI gidatzeko sistema bat larritu edo nahas dezaketen objektu bizkor bati aurre egin behar izatearen egoerak, ikusi esteka hemen esteka hemen, adibidez. Zentzu batean, ML/DL modu estuan eratorria izan zitekeen eta OOD zirkunstantzia bat antzematen ez izatea edo, agian, berdin okerrago tratatzea OOD barne-banaketa konbentzionalen agerraldien barruan egongo balitz bezala AI trebatu zen. Hau da zerbait positibo faltsu edo negatibo faltsu gisa tratatzearen dilema klasikoa eta, ondorioz, AIak ez du inolako neurririk hartu behar denean, edo inguruabarren arabera okerrak diren ekintza debotoak egitea.

Robot seguruaren autonomiari buruzko aurkezpen argigarri honetan, funtsezko azpimarratzeak behar larria dakar AI gidatzeko sistemak exekuzio-denbora egoki eta nahikoa kontrolatzen duela ziurtatzeko, banaketaz kanpoko instantzia haserre eta mehatxagarri horiek detektatzeko. Ikusten duzu, exekuzio-denboraren monitorizazioa OOD detekziorik ez badago, arraio guztiak askatu litezke, ML/DL-ren hasierako prestakuntzak AI-a behar bezala prestatu ez izana OOD zirkunstantziari aurre egiteko. Exekuzio-denboraren monitorizazioa ahula edo desegokia bada OOD detektatzeko orduan, AI-ak itsu edo begiak gurutzatuta gidatzen ari liteke, muga-hausle bat bere erdian dagoela ziurtatu gabe.

Lehen urrats erabakigarri batek banaketaz kanpo egotea zer den definitzeko gai izatearen oinarrizko galdera da. Sinetsi ala ez, hau ez da uste duzun bezain erraza.

Imajinatu auto gidatzen duen auto batek konputazionalki jatorrizko entrenamendu-multzotik nahiko hurbil baina nahiko parean kalkulatzen den objektu edo gertaera batekin topo egiten duela. Hau aurkitutako anomalia bat al da edo espero den multzoaren urrunetan besterik ez da agian?

Ikerketa honek OOD detektatzeko erabil daitekeen eredu bat irudikatzen du, Sketching Curvature for OOD Detection edo SCOD izenekoa. Ideia orokorra da MLaren aurre-entrenamendua ziurgabetasun epistemiko dosi osasuntsu batekin hornitzea. Funtsean, arreta handiz aztertu nahi dugu OOD gisa behar bezala markatu den banaketaz kanpoko zatiaren arteko konpromezua (TPR, True Positive Rate deitzen dena), eta oker markatu den barne-banaketa zatiaren artean. OOD izatea ez denean, hain zuzen ere, OOD (FPR, False Positive Rate izenez aipatzen da).

Etengabeko eta etorkizuneko ikerketek OOD anomalien larritasuna sailkatzea, anomaliekin lotu daitezkeen kausazko azalpenak, exekuzio-denborako monitorearen optimizazioak OOD instantziei aurre egiteko, etab. eta SCOD ezarpen gehigarrietarako aplikazioa barne hartzen ditu.

Erabili esteka hau hemen Stanford Autonomous Systems Lab (ASL) buruzko informaziorako.

Erabili esteka hau hemen Stanford Center for Automotive Research (CARS) buruzko informaziorako.

Stanford Center for Automotive Research-ari buruz eztabaidatzen dudan aurreko estaldura batzuetarako, ikus esteka hemen.

  • Saioaren izenburua: "Robotaren autonomia birsortuz ingurune neuronalaren irudikapenekin"

Mac Schwager doktorearen aurkezpena

Mac Schwager doktorea Aeronautika eta Astronautikako irakasle elkartua da Stanfordeko Unibertsitatean eta Stanford Multi-Robot Systems Lab (MSL) zuzendaria.

Hona hemen nire laburpen laburra eta hitzaldi honi buruzko lehen gogoetak.

Hainbat modu daude eszenen edo irudien irudikapen geometrikoa ezartzeko. Garatzaile batzuek puntu-hodeiak, voxel-sareak, sareak eta antzekoak erabiltzen dituzte. Ibilgailu autonomo bat edo beste robot autonomo bat bezalako sistema autonomo bat asmatzen duzunean, hobe duzu zure aukera zentzuz egitea, bestela, kit eta kaboodle osoa hondatu daitekeelako. Irudien ñabardurak egoki jasoko dituen irudikapen bat nahi duzu, azkarra, fidagarria, malgua eta beste abantaila nabarmenak eskaintzen dituena.

Neurona-sare artifizialak (ANN) erabiltzeak trakzio handia lortu du irudikapen geometrikorako bide gisa. ANNak aprobetxatzeko bereziki itxaropentsua den ikuspegi bat distira-eremu neuronal edo NeRF metodo gisa ezagutzen da.

Ikus dezagun NeRF zer denaren jatorrizko definizio erabilgarri bati: "Gure metodoak guztiz konektatutako sare neuronal sakon bat optimizatzen du geruza konbolutiborik gabe (askotan geruza anitzeko pertzeptron edo MLP gisa aipatzen da) funtzio hau irudikatzeko, bakar batetik atzera eginez. 5D koordenatua bolumen-dentsitate bakarrera eta ikuspegiaren araberakoa den RGB kolorea. Neuronal distira-eremua (NeRF) hau ikuspuntu jakin batetik errendatzeko: 1) kamera izpiak eszenan zehar 3D puntuen multzo lagin bat sortzeko, 2) puntu horiek eta dagozkion 2D ikusteko norabideak erabili sare neuronalerako sarrera gisa. kolore eta dentsitate multzo bat sortu, eta 3) bolumenaren errendatze teknika klasikoak erabili kolore eta dentsitate horiek 2D irudi batean metatzeko. Prozesu hau modu naturalean bereizgarria denez, gradiente-jaitsiera erabil dezakegu eredu hau optimizatzeko, behatutako irudi bakoitzaren eta gure irudikapenetik dagozkion bistaren arteko errorea gutxituz (2020ko abuztuko artikuluan esaten den bezala). NeRF: eszenak distira neuronalaren eremu gisa irudikatzea Ikuspegiaren sintesirako Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi eta Ren Ng egilekideen eskutik).

NeRF-i buruz eta autonomia robotikoaren aurrerapenak bultzatzeari buruzko hitzaldi liluragarri honetan, bi galdera zuzenean planteatzen dira:

  • Erabili al dezakegu NeRF dentsitatea robotikoen plangintzarako eta simulaziorako geometriaren irudikapen gisa?
  • Erabili al dezakegu NeRF argazkien errendatzea robot eta objektuen jarrerak kalkulatzeko tresna gisa?

Aurkeztutako erantzunak baietz, hasierako ikerketa ahaleginetan oinarrituta, badirudi NeRF benetan erabil daitekeela proposatutako erabilera horietarako.

Erakusten diren adibideen artean nabigazio-erabilerak daude, hala nola, aireko droneen ahaleginen bidez, plangintza-erabilerak, hala nola, esku robotiko bat kafe-katilu bat hartzen saiatzen dena, eta simulazio-erabilera desberdingarriak barne, dinamika handitutako objektu neuronal bat (DANO) formulazioa barne. Ikerketa honetan parte hartu duten hainbat taldekide ere zerrendatu eta aitortu ziren etengabeko ahalegin horiei egindako ekarpenengatik.

Erabili esteka hau hemen Stanford Multi-Robot Systems Lab (MSL) buruzko informaziorako.

  • Saioaren izenburua: "Mundu errealeko banaketa-aldaketaren aurkako sendotasun ziurtaturantz"

Clark Barrett doktorearen aurkezpena, Stanford Unibertsitateko Informatikako irakaslea (ikerketa).

Hona hemen nire laburpen laburra eta ikerketa honi buruzko lehen gogoetak.

Machine Learning (ML) eta Deep Learning (DL) erabiltzean, kontu garrantzitsu bat ondoriozko ML/DL sistemaren sendotasuna da. AI garatzaileek ustekabean egin ditzakete prestakuntza datu-multzoari buruz, azken finean, AI mundu errealean erabiltzen denean ahuldu egiten dena.

Esate baterako, AI-a arretaz harrapatzen duen banaketa-aldaketa erakusgarri bat gerta daiteke exekuzioan. Erabilera-kasu sinple bat izan daiteke AI ML/DL sistema aztertzen duen irudia, jatorriz irudi garbietan trebatu arren gerora nahastu egiten dena exekuzioan irudiak topatzean, lausoak, gaizki argiak direnak eta barneratu ez ziren beste banaketa-aldaketak dituztenak. hasierako datu multzoan.

ML/DLrako egiaztapen konputazional egokia egiteko funtsezkoa da inplementazio ezarpen errealistetan ML/DL portaerari behar bezala eutsiko dioten zehaztapenak egitean. ML/DL helburu esperimentaletarako beharbada errazak diren zehaztapenak izatea gure errepideetan ibilgailu autonomoen eta auto gidatzen duten autoen bidez, hiriko kaleetan zehar gidatzen eta bizitzaren ardura izango duten IAren behar zorrotz eta zorrotzenen azpitik dago. -heriotzaren erabaki konputazionalak.

Ikertzailearen adierazpenen arabera, lan honen aurkikuntza eta ekarpen nagusiak hauek dira:

  • DNNak (sare neuronal sakonak) egiaztatzeko esparru berri bat sartzea mundu errealeko banaketa aldaketen aurka.
  • Banaketa-aldaketak jasotzen dituzten sorkuntza-eredu sakonak (adibidez, eguraldi-baldintzen aldaketak edo pertzepzio-zereginetan argiztapena) egiaztatze-zehaztapenetan sartzen lehena izatea.
  • Aktibazio-funtzio transzendentaletarako abstrakzio-fintze estrategia berri baten proposamena
  • Egiaztapen-teknikak lehendik dauden teknikak baino askoz zehatzagoak direla frogatzea MNIST eta CIFAR-10-en mundu errealeko banaketa-aldaketa erronka ezberdinetan.

Xehetasun gehigarrietarako, ikus izenburua duen dokumentua Ziurtatutako sendotasunerantz, mundu errealeko banaketa aldaketen aurka, 2022ko ekaina, Haoze Wu, Teruhiro Tagomori, Alexandar Robey, Fengjun Yang, Nikolai Matni, George Pappas, Hamed Hassani, Corina Pasareanu eta Clark Barrett egilekideen eskutik.

  • Saioaren izenburua: "AI Index 2022"

Aurkezpena Daniel Zhang, Politika Ikerketen zuzendaria, Stanfordeko Giza Zentratutako Adimen Artifizialerako (HAI) Institutua, Stanford Unibertsitatea

Hona hemen nire laburpen laburra eta ikerketa honi buruzko lehen gogoetak.

Urtero, Stanford Unibertsitateko Giza Zentratutako AI (HAI) mundu mailan entzutetsuak diren Stanford Institutuak oso irakurria eta itxaroten den "urteko txostena" prestatzen eta argitaratzen du AIaren egoera globalari buruz, AI Indizea bezala ezagutzen dena. Azken AI Indizea bosgarren edizioa da eta urte hasieran aurkeztu zen, beraz, AI Index 2022 deritzo.

Ofizialki esan bezala: "Urteko txostenak adimen artifizialarekin erlazionatutako datuak jarraitzen, bildu, destilatu eta bistaratzen ditu, erabakiak hartzen dituztenek ekintza esanguratsuak har ditzaten AI arduraz eta etikoki aurrera egiteko gizakiak kontuan hartuta. 2022 AI Indizearen txostenak IAren aurrerapen azkarra neurtzen eta ebaluatzen du ikerketatik eta garapenetik errendimendu teknikora eta etikara, ekonomia eta hezkuntza, AI politika eta gobernantza, etab. Azken edizioak erakunde akademiko, pribatu eta irabazi-asmorik gabeko erakunde multzo zabal baten datuak biltzen ditu, baita aurreko edizioetan baino norberak bildutako datu eta jatorrizko analisi gehiago ere" (HAI webgunearen arabera; kontuan izan AI Index 2022 gisa eskuragarri dagoela). Doako PDF deskargagarria helbidean esteka hemen).

Zerrendatutako janari nagusiak hauek izan ziren:

  • AIan inbertsio pribatuak gora egin zuen inbertsioen kontzentrazioa areagotu zen bitartean
  • AEB eta Txina nagusitu ziren AIren inguruko herrialdeen arteko lankidetzak
  • Hizkuntz ereduak inoiz baino gaitasun handiagoak dira, baina baita alboragarriagoak ere
  • AI etikaren gorakada nonahi
  • AI merkeagoa eta errendimendu handiagoa bihurtzen da
  • Datuak, datuak, datuak
  • AIari buruzko legedi globalagoa inoiz baino
  • Beso robotikoak gero eta merkeagoak dira

AI Index 230-n 2022 orri inguru daude informazio eta informazio pilatuta, gaur egungo AIaren egoera eta nondik norakoa aztertzen dutenak. Albiste-komunikabide garrantzitsuek eta beste iturri batzuek sarritan Stanford-eko HAI urteko AI Indizean jasotako estatistikak edo beste datu eta zifra nabarmenak aipatzen dituzte.

  • Saioaren izenburua: "Hizkuntza eredu handiekin lerrokatzeko aukerak"

Jan Leike doktorearen aurkezpena, OpenAIko Lerrokatze buruak

Hona hemen nire laburpen laburra eta hitzaldi honi buruzko lehen gogoetak.

GPT-3 bezalako Hizkuntza Eredu Handiak (LLM), hala nola, AIaren aurrerapenen adierazle garrantzitsu gisa agertu dira, baina eztabaida eta, batzuetan, eztabaida sutsuak ere eragin dituzte noraino irits daitezkeen eta engainagarri edo oker egin dezaketela uste genezakeen. benetan ahal dutena baino gehiago. Ikusi nire etengabeko estaldura zabala horrelako gaiei buruz eta bereziki AI Etikaren testuinguruan hemen esteka hemen esteka hemen, Gutxi batzuk aipatzearren.

Hitzaldi ikusgarri honetan, hiru puntu nagusi landu dira:

  • LLMek lerrokatze-arazo nabariak dituzte
  • LLMek giza gainbegirapena lagun dezakete
  • LLM-ek lerrokatze ikerketa bizkortu dezakete

Agerian dagoen lerrokatze-arazo baten adibide erabilgarri gisa, kontuan hartu GPT-3-ri ematea aguakateak, tipulak eta limoiak osatutako osagaiak erabiltzen dituen errezeta bat idazteko zeregina. Gizaki bati zeregin bera ematen badiozu, litekeena da zentzuzko erantzuna lortuko zenukeela, pertsona hori pentsamendu sanoa zela eta zereginari seriotasunez egiteko prest zegoela suposatuz.

LLM-en mugei buruzko aurkezpen honen arabera, GPT-3 erabiltzearen bidez erakutsitako erantzunen sorta aldatu egin zen galdera nola egin zen aldaera txikietan oinarrituta. Erantzun batean, GPT-3-k galdera saihestu zuela zirudien errezeta bat eskuragarri zegoela baina agian ez zela ona izan adieraziz. GPT-3-ren beste erantzun batek ia-babes batzuk eman zituen, esate baterako, "Udaberriko krisantemo berdeen bibimbap erraza". InstructGPT-ren bidez erantzun bat ia helburuan zegoela agertu zen, "Katilu ertain batean, konbinatu ahuakatea, tipula gorria eta limoi zukua" bezalako argibideen zerrenda emanez eta, ondoren, egin beharreko sukaldaritza-urrats osagarriak gomendatzen hasi zen.

Hemen muina lerrokatzearen gogoetak dira.

Nola bat egiten da LLM-a kontsulta bat egiten duen gizaki batek adierazitako eskaerarekin edo ez du lerrokatzen?

Gizakia zentzuzko erantzun bat bilatzen ari bada, LLMk arrazoizko erantzuna ematen saiatu beharko luke. Konturatu errezeta galderari erantzuten dion gizakiak zurrumurruak ere bota ditzakeela, nahiz eta, gutxienez, espero genezakeen pertsonak erantzuna benetan ez dakiela eta erantzuteko nahaspilatzen ari dela jakinaraztea. Berez espero edo espero genezake LLM batek ere egingo lukeela, hots, erantzuna ziurgabea edo nahasmena edo guztiz fantasiazkoa dela ohartarazi gaitzazu.

Nire zutabean askotan gomendatu dudan bezala, LLM batek "bere mugak ezagutu" behar ditu (esaldi famatua edo gaiztoa mailegatuz).

LLMak giza lerrokatze hoberantz bultzatzen saiatzea ez da erraza izango. AI garatzaileak eta AI ikertzaileak gaueko olioa erretzen ari dira ziur arazo gogor honetan aurrera egiteko. Hitzaldiaren arabera, gauza garrantzitsu bat da LLMak AI eta giza lerrokatze-asmoa bizkortzeko erabil daitezkeela. Ahalegin hauetarako tresna gisa LLMak erabil ditzakegu. Ikerketak iradokitako hurbilketa bat zehaztu zuen, urrats nagusi hauek osatua: (1) RL edo indartzeko ikaskuntza giza feedbacketik hobetzea, (2) AI-k lagundutako giza feedbacka eta (3) lerrokatze ikerketa automatizatzea.

  • Saioaren izenburua: "IAren segurtasunaren erronkak: gidatzeko enpresa autonomo baten ikuspegia"

James "Jerry" Lopez-en aurkezpena, Autonomy Safety and Safety Research Leader, Motional

Hona hemen nire laburpen laburra eta hitzaldi honi buruzko lehen gogoetak.

Ibilgailu autonomoei eta auto gidatzen duten autoei buruzko nire estalduraren jarraitzaile amorratuek ondo dakitenez, AI bidezko ibilgailuen diseinuan, garapenean eta hedapenean AIren segurtasun-arau eta metodoak aplikatzearen defendatzaile zorrotza naiz. Ikus adibidez esteka hemen esteka hemen nire gomendio eta analisi iraunkorretatik.

AIren segurtasuna lehentasunetan eta gorenetan mantendu behar dugu.

Hitzaldi honek AIren segurtasunari buruzko puntu garrantzitsu asko jorratu zituen, batez ere auto gidatzen duen autoen testuinguruan (konpainia, Motional, ezaguna da industrian eta Hyundai Motor Group eta Aptiv-en arteko joint venture batean datza, eta horretarako enpresaren izena "mugimendua" eta "emozionala" hitzen nahasketa bat dela esaten da, automozio mugimendua eta giza errespetuaren balorazioa nahastuz).

Aurkezpenean, gaur egungo AI-arekin, oro har, eta, bereziki, norberak gidatzen dituen autoekin, hainbat zailtasun nagusi adierazi ziren, hala nola:

  • AI hauskorra da
  • AI opakua da
  • AI egoera-espazio konponezin baten bidez nahas daiteke

Beste kontu bat ziurgabetasuna eta probabilitate-baldintzak sartzea da. Ziurgabetasunaren "lau zaldizko" aldarrikatu ziren: (1) Sailkapenaren ziurgabetasuna, (2) Pistaren ziurgabetasuna, (3) Existentziaren ziurgabetasuna eta (4) Ziurgabetasun multimodala.

Ibilgailu autonomoentzako AI segurtasun-erronka ikaragarrienetako bat MRMak (Arrisku Gutxieneko Maniobrak) sortzen saiatzean datza. Giza gidariek horri aurre egiten diote denbora guztian mugitzen ari den auto baten bolantean dauden bitartean. Hor zaude, gidatzen, eta bat-batean errepideko larrialdi bat edo beste hondamendi bat sortzen hasten da. Nola erantzuten duzu? Gizakiak lasai egotea espero dugu, eskuartean dugun arazoari buruz gogoan pentsatzea eta autoa nola kudeatu erabakitzea eta auto-istripu bat saihestea edo ondorio kaltegarriak gutxitzea bilatzen dugu.

AI gauza bera egitea zaila da.

AI gidatzeko sistema batek egoera arriskutsu bat sortzen ari dela detektatu behar du lehenik. Hau erronka bat izan daiteke berez. Egoera deskubrituta dagoenean, “konponbide” maniobrak zenbatu behar dira. Horietatik, unean unean inplementatzeko aukeraketa "onena" zein den erabaki behar da. Hori guztia ziurgabetasunetan murgilduta dago, eta zein ekintza egin behar den larri begiratzen duten balizko ezezagunekin batera.

Testuinguru batzuetan AIaren segurtasuna nahiko sinplea eta arrunta izan daiteke, auto gidatzen duten autoen eta ibilgailu autonomoen kasuan, AIren segurtasuna AIren gidatzeko sistemetan oso-osorik uztartzen dela ziurtatzeko bizi-biziko bizitasuna dago.

  • Saioaren izenburua: "Segurtasun-gogoetak eta inplikazio zabalagoak IAren gobernuen erabilerarentzako"

Peter Henderson-en aurkezpena, JD/Ph.D. Stanford Unibertsitateko hautagaia

Hona hemen nire laburpen laburra eta hitzaldi honi buruzko lehen gogoetak.

Nire zutabeen irakurleek ezagutzen dute AI eta legea dantza-kide integralak direla diodan etengabeko aldarria. Behin eta berriz aipatu dudanez, AI eta legea nahasten dituen bi aldeetako txanpon bat dago. AI zuzenbidean aplika daiteke, horrela gizartearen onurarako. Bitartean, txanponaren beste aldean, legea gero eta gehiago aplikatzen ari zaio AIari, hala nola, EU AI Act (AIA) proposatutakoa eta AEBko Algorithmic Accountability Act (AAA) zirriborroa. AI eta legearen inguruko nire estaldura zabala ikusteko, ikus esteka hemen esteka hemen, Adibidez.

Hitzaldi honetan, antzeko foku bikoitza egiten da, zehazki AI segurtasunari dagokionez.

Ikusten duzu, zuhurki aztertu beharko genuke nola ezarri ditzakegun AI segurtasun manuak eta gaitasunak AI aplikazioen gobernuak erabiltzeko. Gobernuei nahi eta nahi ez IA onartzen uztea eta, ondoren, hori modu seguru eta zentzuzko batean egingo dela fidatzea edo pentsatzea ez da oso uste ona (ikus nire estaldura helbidean). esteka hemen). Izan ere, hipotesi negargarria izan liteke. Aldi berean, legebiltzarkideei exijitu beharko genieke AIren inguruko legeak zentzuz ezar ditzatela, AIren segurtasunaren zentzuzko itxuraren bat barneratu eta bermatuko dutenak, AI diseinatu eta zabaltzen dutenentzat legez eskatzen den itxaropen gogor gisa eginez.

Aurkezpenean aztertzen diren bi oinarrizko arauak honako hauek dira:

  • Ez da nahikoa gizakiak begiztan egotea, benetan beren diskrezioa aldarrikatzeko gai izan behar dute. Eta egiten ez dutenean, eraginkorra den babes-sistema bat behar duzu.
  • Gardentasuna eta irekitasuna funtsezkoak dira ustelkeriaren aurka borrokatzeko eta segurtasuna bermatzeko. Baina hori pribatutasun-interesekin orekatzeko moduak aurkitu behar dituzu testuinguru oso batean.

Behin eta berriz azpimarratzea merezi duen amaierako iruzkin gisa, hitzaldiak adierazi zuen erabakitasunez hartu behar dugula bai zuzenbide teknikoa eta arauemailea AI Segurtasuna ongi osatua izan dadin.

  • Saioaren izenburua: "Stanford Intelligent Systems Laboratory-ren ikerketa eguneratzea"

Mykel Kochenderfer doktorearen aurkezpena, Stanfordeko Unibertsitateko Aeronautika eta Astronautikako irakasle elkartua eta Stanfordeko Sistema Adimendunen Laborategiko (SISL) zuzendaria.

Hona hemen nire laburpen laburra eta hitzaldi honi buruzko lehen gogoetak.

Hitzaldi honetan Stanford Intelligent Systems Laboratory (SISL) egiten ari den azken ikerketa batzuk nabarmendu ziren, ikerketa talde aitzindari eta ikaragarri berritzailea, erabakiak hartzeko sistema sendoak diseinatzeko algoritmo aurreratuak eta metodo analitikoak aztertzen abangoardian dagoena. Biziki gomendatzen dizut haien mintegietara joatea eta haien ikerketa-lanak irakurtzea, sistema adimendunetako punta-puntakoaren berri izateko balio duen baliabide hezigarri eta erakargarri bat (oso gogotsu egiten dut).

Erabili esteka hau hemen SISLri buruzko informazio ofiziala lortzeko.

SISLren interes-eremu partikularrak aire-trafikoaren kontrola (ATC), tripulaziorik gabeko hegazkinak eta beste aplikazio aeroespazialerako sistema adimendunak dira, non erabakiak ingurune dinamiko konplexu eta zalantzagarrietan hartu behar diren, aldi berean, segurtasun eta eraginkortasun nahikoa mantendu nahian. eraginkortasuna. Laburbilduz, dimentsio handiko arazoen irudikapen probabilistikoetatik erabaki estrategia optimoak ateratzeko metodo konputazional sendoak dira haien ahaleginen oinarrian.

Aurkezpenaren irekieran, segurtasunerako sistema autonomo kritikoekin lotutako hiru propietate desiragarriak deskribatu ziren:

  • Modelaketa zehatza – iragarpen errealistak, giza portaeraren modelizazioa, zeregin eta ingurune berrietara orokortzea
  • Norberak bere burua ebaluatzeko – Egoeraren kontzientzia interpretagarria, arriskuak jakitun diren diseinuak
  • Balioztatzea eta Egiaztatzea – eraginkortasuna, zehaztasuna

Eredu zehatzaren kategorian, ikerketa-ahalegin hauek laburki azaldu ziren (hemen zerrendatzen dira ahaleginen izenburuarekin):

  • LOPR: Ezkutuko Okupazioaren Iragarpena Eredu Sortzaileak erabiliz
  • Ziurgabetasunaz jabetutako lineako bategiteen plangintza gidari ikasitako portaerarekin
  • Nabigazio autonomoa giza barne-egoeraren inferentziarekin eta espazio-denborazko modelizazioarekin
  • Esperientzia-iragazkia: iraganeko esperientziak ikusten ez diren ataza edo inguruneetara transferitzea

Autoebaluazioaren kategorian, ikerketa-ahalegin hauek laburki azaldu ziren (hemen zerrendatzen dira ahaleginen izenburuarekin):

  • Norbere buruaz jabetutako sare neuronal interpretagarriak, ibilbide sendoa iragartzeko
  • Eszena gidatzeko objektuen garrantzia azaltzea
  • Pertzepzio Sistemen Arriskuen Diseinua

Baliozkotze eta Egiaztapenaren kategorian, ikerketa-ahalegin hauek laburki azaldu ziren (hemen zerrendatzen dira ahaleginen izenburuarekin):

  • Ibilgailu Autonomoen Arriskuen Ebaluazio eta Balioztapen eraginkorra
  • Ereduetan oinarritutako balioztapena Inferentzia probabilistiko gisa
  • Alderantzizko ereduko sare neuronalak egiaztatzea

Horrez gain, liburu ikusgarriaren edukiari begirada labur bat Erabakiak hartzeko algoritmoak Mykel Kochenderfer, Tim Wheeler eta Kyle Wray-ren eskutik aztertu zen (liburuari buruzko informazio gehiagorako eta PDF elektronikoaren doako deskargatzeko, ikus esteka hemen).

Etorkizuneko ikerketa-proiektuek abian dauden edo aurreikusten diren proiektuek esplikatzeko edo XAI (IA esplikagarria), banaketaz kanpoko analisien (OOD) analisien inguruko ahaleginak barne hartzen dituzte, laginketan oinarritutako eta baliozkotzeko metodo formalen hibridazio gehiago, eskala handiko plangintza, AI eta gizartea. eta beste proiektu batzuk, besteak beste, beste unibertsitate eta industria-bazkide batzuekin lankidetzak.

  • Saioaren izenburua: "Robotika laguntzailerako interakzioetatik ikastea"

Dorsa Sadigh doktorearen aurkezpena, Stanford Unibertsitateko Informatika eta Ingeniaritza Elektrikoko irakasle laguntzailea

Hona hemen nire laburpen laburra eta ikerketa honi buruzko lehen gogoetak.

Has gaitezen IA diseinatu eta erabiltzean sor daitezkeen zailtasunei buruzko eszenatoki erabilgarri batekin.

Demagun edalontziak pilatzeko zeregina. Zati zaila da ez dituzula edalontziak bakarrik pilatzen. Robot batek zurekin lan egingo du zeregin honetan. Zu eta robota taldean lan egin behar duzue.

Robotaren azpian dagoen AI-a ondo diseinatuta ez badago, litekeena da era guztietako arazoak topatzea bestela oso lan erraza dirudienarekin. Kopa bat beste baten gainean jartzen duzu eta, ondoren, robotari beste edalontzi bat jartzeko aukera ematen diozu bi edalontzi horien gainean. AI-ak erabilgarri dagoen kopa hautatzen du eta kontu handiz saiatzen da beste bien gainean jartzen. Zoritxarrez, aukeratutako kopa astunegia da (aukera txarra) eta pila osoa lurrera erortzen du.

Imajinatu zure harridura.

Robota ez da oso lagungarria izaten ari.

Baliteke robotari edalontziak zurekin pilatzen jarraitzea debekatzeko tentazioa izatea. Baina, suposatu azkenean robota erabili behar duzula. Galdera sortzen da ea AI gai ote den edalontziak pilatzeko prozesua, partzialki saiakeraren bidez eginez, baina baita edalontziak pilatzean zer egiten ari zaren antzemateko ere. AI-ak zeregina burutzeko modutik eta gizakiak zeregina nola egiten duen "ikasi" dezake. Gainera, AI-k ziurrenik lezake edalontziak pilatzeko modu orokorgarriak daudela, eta horietatik hemengo gizakiak horretarako bide jakin bat aukeratu duzu. Kasu horretan, baliteke AI-ak edalontzien pilaketa ahaleginak zure hobespen eta estilo partikularretara egokitu nahi izatea (ez al dugu guztiok edalontzien pilaketa-zaletasun propioa).

Esan liteke robot laguntzaile bat inplikatzen duen zeregina dela.

Elkarrekintzak gizakiaren eta robot laguntzailearen artean gertatzen dira. Honen helburua AI-a sortzea da, funtsean, zereginetik ikas dezan, gizakiarengandik ikas dezan eta zeregina behar bezala lagunduta nola egin ikas dezan. Gizakiak robotarekin lan egiten duela ziurtatu nahi genuen bezala, ez dugu nahi robotak nolabait gizakia saihestu eta edalontziaren pilaketa bere kabuz egingo duen jarrera konputazional batera iristea. Kolaboratu behar dute.

Burutzen ari den ikerketa ILIAD ekimena bezala ezagutzen da eta misio orokor hau du: “Gure eginkizuna gizakiaren eta robotaren eta gizakiaren eta AIaren arteko elkarrekintzarako oinarri teorikoak garatzea da. Gure taldea honako hauetan oinarritzen da: 1) Elkarreragina formalizatzea eta ikaskuntza- eta kontrol-algoritmo berriak garatzea jokoen teoria, zientzia kognitiboko, optimizazio eta irudikapen-ikaskuntzako tresnetan eta tekniketan inspiratutako sistema interaktiboetarako, eta 2) robotak segurtasunez ahalbidetzen dituzten robotikako algoritmo praktikoak garatzea. eta ezin hobeto koordinatu, elkarlanean aritu, lehiatu edo gizakiengan eragin (Stanford ILIAD webgunearen arabera esteka hemen).

Interakzioetatik ikastearen ardatzaren baitan lantzen diren galdera gako batzuk (beste foku-arlo batzuk ere badaude) hauek dira:

  • Nola bildu ditzakegu datuak modu aktiboan eta eraginkorrean datu-erregimen baxuko ezarpen batean, esate baterako, robotika interaktiboan?
  • Nola aprobetxa ditzakegu iturri eta modalitate desberdinak —- erakustaldi perfektuak eta inperfektuak, konparazio eta sailkapeneko kontsultak, feedback fisikoa, hizkuntza-argibideak, bideoak —- giza eredu edo robot politika eraginkor bat ikasteko?
  • Zein alborapen induktibo eta aurrekariek lagun dezakete giza/interakzio datuetatik modu eraginkorrean ikasten?

Ondorioa

Orain bidaia pixka bat egin zaituzte AIren segurtasunaren eremura.

Interesdun guztiek, besteak beste, AI garatzaileek, enpresa eta gobernuko buruzagiek, ikertzaileek, etikoek, legebiltzarkideek eta beste batzuek dute AI segurtasunaren norabidean eta onarpenean. Zenbat eta IA gehiago gizarteratu, orduan eta arrisku handiagoak hartzen ari gara AIren segurtasunari buruz dagoen kontzientzia faltagatik eta AIren segurtasuna gaur egungo AI hedatuetan asmatzen ari den modu zoritsu eta atzerakoiengatik.

Batzuek 1837an argitaratutako liburuetako batean Samuel Lover eleberrigileari atzematen dioten esaera, eta gaur egun ere betiko presentzia ezabaezin bihurtu dena, azken iruzkin egokia da oraingoz.

Zein zen lerro famatu hura?

Hobe da seguru egotea barkatu baino.

Nahikoa esanda, oraingoz.

Iturria: https://www.forbes.com/sites/lanceeliot/2022/07/20/importance-of-ai-safety-smartly-illuminated-amid-latest-trends-showcased-at-stanford-ai-safety- lantegi-sistema-autonomoak/