Eliezer Yudkowsky

Wikipedia, Entziklopedia askea
Eliezer Yudkowsky

Bizitza
Jaiotzako izen-deiturakEliezer Shlomo Yudkowsky
JaiotzaChicago1979ko irailaren 11 (44 urte)
Herrialdea Ameriketako Estatu Batuak
Hezkuntza
Hizkuntzakingelesa
Jarduerak
Jarduerakartificial intelligence researcher (en) Itzuli, blogaria, idazlea eta informatikaria
Enplegatzailea(k)Machine Intelligence Research Institute (en) Itzuli
Lan nabarmenak
InfluentziakEdwin Thompson Jaynes (en) Itzuli eta Judea Pearl (en) Itzuli
Mugimenduaeffective altruism (en) Itzuli
Sinesmenak eta ideologia
Erlijioaateismoa

yudkowsky.net
Facebook: yudkowsky Twitter: ESYudkowsky Edit the value on Wikidata

Eliezer Shlomo Yudkowsky (Chicago, 1979ko irailaren 11) Estatu Batuetako adimen artifizialeko ikertzailea da eta erabakiaren teoriaren eta etikaren idazlea, adimen artifizial lagunkoia ideiaren populazioagatik ezagunagoa.  Adimen Artifizialaren Ikerketa Institutuaren (MIRI) sortzailea eta ikertzailea da. Berkeleyn (Kalifornia)[1] egoitza duen irabazi asmorik gabeko erakunde pribatua da.  Nick Bostrom filosofoaren Superinteligentzia: Bideak, Arriskuak, Estrategiak 2014. urteko liburuan eragina izan zuen adimen iheskorreko leherketa baten ikuspegian egindako lanak.

Adimen artifizialeko segurtasun-lana[aldatu | aldatu iturburu kodea]

Helburu-ikasketa eta pizgarriak software-sistemetan[aldatu | aldatu iturburu kodea]

Yudkowskyk etorkizuneko AA sistemen belaunaldiek planteatzen dituzten segurtasun-erronkei buruz dituen iritziak Stuart Russell eta Peter Norvigeko Artificial Intelligence: A Modern Approach testuliburuan eztabaidatzen dira. Eskuz helburu orokorrak formalki zehazteko zailtasuna adieraziz, Russellek eta Norvigek Yudkowskyren proposamena aipatzen dute, denboran zehar portaera zuzena ikasteko sistema autonomo eta egokitzaileak diseinatzeko.

Yudkowskyk (2008)[2] xehetasun handiagoz aztertzen du nola diseinatu AA lagunkoi bat. Adiskidetasuna (gizakiak ez kaltetzeko nahia) hasieratik diseinatu behar dela dio, baina diseinatzaileek bere diseinuak akastunak izan daitezkeela onartu behar dutela, eta robotak denborarekin ikasi eta eboluzionatuko duela. Beraz, erronka mekanismoen diseinua da: eboluzioan dagoen adimen artifizialei mekanismo bat diseinatzea egiaztapen -eta oreka- sistema baten bidez, eta sistemei funtzio erabilgarriak ematea, aldaketa horien aurrean adiskide izaten jarraituko dutenak.

Konbergentzia instrumentalaren inguruko kezkari erantzunez, gaizki diseinatutako helburuak dituzten erabakiak hartzeko sistema autonomoek pizgarri lehenetsiak izango lituzketela gizakiak gaizki tratatzeko, Yudkowskyk eta MIRIko beste ikertzaile batzuek gomendatu dute lan egin dadila portaera seguruak dituzten software-agenteak zehazteko, baita haien helburuak gaizki zehazten direnean ere.

Gaitasunen aurreikuspena[aldatu | aldatu iturburu kodea]

I. J. Goodek hipotetizatutako adimenaren leherketa-egoeran. AA sistema onak eta autore-hobetzaileak oso azkar igarotzen dira giza adimen nagusitik adimen superadimendunera. Nick Bostromek Superintelligence: Bideak, Arriskuak, Estrategiak 2014ko liburuak Good-en argumentua azaltzen du xehetasunez, eta Yudkowsky aipatzen du AAren sistema aurreratuak antropomorfizatzeak adimen-leherketa baten izaera gaizki interpretatzearen arriskuaz. "Itxuraz, AAk jauzi zorrotza egin lezake adimenean, antropomorfismoaren ondorio huts gisa, gizakiak 'herriaren memeloa' eta 'Einstein' adimen-mutur gisa pentsatzeko duen joeraren ondorio gisa, ez-orokorraren eskalan ia bereizezinak diren puntuen ordez".

Artificial Intelligence: A Modern Approach liburuan, Russellek eta Norvigek eragozpen bat planteatzen dute: problema adimendunak ebazteko muga ezagunak daude konplexutasun konputazionalaren teoriatik abiatuta; algoritmoek zenbait ataza eraginkortasunez nola ebatz ditzaketen jakiteko muga sendoak badaude, baliteke adimen-leherketa bat ezinezkoa izatea.

Time kontrako orrialde editoriala[aldatu | aldatu iturburu kodea]

Time aldizkariaren kontrako orrialde editorial baterako 2023an Yudkowskyk adimen artifizialaren arriskuari buruz eztabaidatu zuen, eta hura mugatzeko neurriak proposatu zituen; besteak beste, AA erabat etetea, edo, are gehiago, "datu-zentro bat suntsitzea aireko erasoagatik"[3]. Artikuluak AA korronte nagusiarekin lerrokatzeari buruzko eztabaida sartzen lagundu zuen, eta, horren ondorioz, kazetari batek Joe Biden lehendakariari AAren segurtasunari buruzko galdera bat egin zion prentsako informazio-saio batean.

Idazketa arrazionala[aldatu | aldatu iturburu kodea]

2006 eta 2009 artean, Yudkowsky eta Robin Hanson izan ziren Overcoming Bias zergadun nagusiak. Zientzia kognitibo eta sozialeko blog hori Oxfordeko Unibertsitateko Gizateriaren Etorkizuneko Institutuak babesten du. 2009ko otsailean, Yudkowskyk LessEvil sortu zuen, "giza arrazionaltasunaren artea hobetzeko blog komunitarioa". Overcoming Bias izan da, harrezkero, Hansonen blog pertsonala.

Bizitza pertsonala[aldatu | aldatu iturburu kodea]

Yudkowsky autodidakta[4] da, eta ez zen bigarren hezkuntzako eskolara ezta unibertsitatera ere joan. Judu ortodoxo moderno gisa hazi zen.

Erreferentziak[aldatu | aldatu iturburu kodea]

  1. Kurzweil, Ray. (2005). The singularity is near : when humans transcend biology. New York : Viking ISBN 978-0-670-03384-3. (Noiz kontsultatua: 2023-12-20).
  2. «Wayback Machine» web.archive.org (Noiz kontsultatua: 2023-12-20).
  3. «"Be willing to destroy a rogue data center by airstrike" - leading AI alignment researcher pens Time piece calling for ban on large GPU clusters - DCD» web.archive.org 2023-04-17 (Noiz kontsultatua: 2023-12-20).
  4. «Jaan Tallinn co-founded Skype, is now focused on stopping dangerous AI - Vox» web.archive.org 2020-03-06 (Noiz kontsultatua: 2023-12-20).

Kanpo estekak[aldatu | aldatu iturburu kodea]