Adimen artifizialaren historia
Adimen Artifizialaren (AA) (ingelesez Artificial Intelligence, AI) historia aspaldi hasi zen, artisau maisuek izaki artifizialei adimena edo kontzientzia ematea lortu zutela kontatzen zuten mitoekin, istorioekin edo zurrumurruekin. AA modernoaren hastapenak filosofo klasikoei zor zaizkie, haiek saiatu baitziren giza-pentsamenduaren prozesua sinboloen manipulazio mekaniko gisa deskribatzen. 1940ko hamarkadan ordenagailu digitala asmatu izanak bultzada handia eman zion horri. Izan ere, arrazoibide matematiko abstraktuan oinarritutako makina horri esker, garun elektroniko bat eraikitzeko aukera serioski eztabaidatzen hasi ziren hainbat zientzialari.
Adimen Artifizialaren ikerketa-arloa Dartmouth College-ko campusean (AEB) egindako tailer zientifikoan sortu zen, 1956ko udan. Tailerrean parte hartu zuten zientzialariek AAren ikerketa gidatu zuten hainbat hamarkadetan zehar. Haietako askok uste zuten gizakia bezain adimentsua izango zen makina sortzea posiblea izango zela epe motzean (belaunaldi bat, gehienez), eta milioika dolar jaso zituzten uste hori egia bihurtzeko.
Denborarekin argi geratu zen ikertzaileek eta proiektua diruz lagundu zutenek proiektuaren zailtasuna gutxietsi zutela; uste zutena baino zailagoa zen. 1974an, James Lighthill -en kritiken[1] eta kongresuaren presioaren ondorioz, AEBetako DARPAk eta Erresuma Batuko Gobernuak AAren arloan egiten zen zuzendu gabeko ikerketa finantzatzeari utzi zioten. Ondoren etorri ziren "Adimen Artifizialaren negua" izenez ezagutzen diren urte zailak. Zazpi urte geroago, Japoniako Gobernuak sustatutako ekimen bati esker, herrialde askotako gobernuek eta industriek AAko proiektuen garapenari milaka milioi dolar eskaini zioten, baina 80ko hamarkadaren amaieran inbertitzaileak etsita agertu ziren lortutako emaitzekin eta finantzaketa berriro ere eten egin zen.
XXI. mendeko lehen hamarkadetan egin zuten gora AAren inguruko inbertsioak eta interesak, ikasketa automatikoa akademian eta industriako problema askoren ebazpenean lortzen ari zen emaitza onak ikusita. Ikasketa automatikorako metodo berriei, hardware ahaltsuari eta datu-multzo erraldoiei esker lortu ahal izan zen arrakasta hori.
Aitzindariak
[aldatu | aldatu iturburu kodea]Aitzindari mitikoak, fikziozkoak eta espekulatiboak
[aldatu | aldatu iturburu kodea]Mitoak eta kondairak
[aldatu | aldatu iturburu kodea]Talos brontzez egindako erraldoi bat zen Greziar mitologian, Kreta uhartearen zaindari gisa jardun zuena. Harkaitzak botatzen zituen inbaditzaileen ontzietara eta egunero uharteari hiru bira ematen zizkion hura babesteko. Liburutegi mitologikoaren arabera, Hefestok Talos automata sortu zuen ziklope baten laguntzaz eta Minos-i oparitu zion.[2] Argonautika olerkian, Talos-ek oinaren ondoan zeukan entxufeari esker garaitu zuten Jasonek eta Argonautek, hura deskonektatzean Talos-i bizia ematen zion ikor-a gorputzetik kanpora isuri eta bizigabeko bihurtzen zelako.[3]
Pigmalion Greziar mitologiako errege eta eskultore mitikoa izan zen eta Ovidioren Metamorfosiak olerkian agertzeagatik ezaguna egin zen. Ovidioren poema narratiboko 10. liburuan, Pigmalion haserretu egiten da emakumeekin, propoetideak prostituzioan nola dabiltzan ikustean[4] Hori dela eta, eskaintzak egiten zituen Venusen tenpluan, jainkosari berak zizelkaturiko estatuaren moduko emakumea ekar ziezaion eskatzeko.
Erdi Aroko kondairak izaki artifizialei buruz
[aldatu | aldatu iturburu kodea]
Paraszeltso, Suitzan jaiotako alkimistak idatzitako Of the Nature of Things -en, "gizon artifizial bat" eratzeko prozedura deskribatzen du. "Gizon baten esperma" zaldi gorotzetan sartuta 40 egunetara, "Gizonaren odola arkanoa" elikatuz, uzta hori haur bihurtuko dela zioen.
Golem-ak egiteari buruzko lehen idatziak Eleazar of Worms-en lanetan aurkitzen dira, XII.mendearen inguruan. [5] Golem-ei bizia emateko, nahikoa zen jainkoren baten izena idatzia zuen paper zati bat Golem-aren buztinezko ahoan sartzea. [6] Brazen Head automata legendarioek ez bezala,[7] Golem-ek ezin zuten hitzik egin. [8]
Takwin, bizi sorkuntza artifiziala, eskuizkribu alkimiko ismaelitetan ohikoa zen gaia, bereziki Jabir ibn Hayyani egotzitakoak. Alkimista islamiarrak, euren lanaren bidez, bizitzeko modu ugari sortzen saiatu ziren, landareetatik hasi eta animalietaraino.[9]
Johann Wolfgang von Goetheren Faust: The Second Part of the Tragedy lanean, alkimikoki egindako homunkulua bat, sortu zen flaskoan betirako bizitzeko egina zena, giza gorputz oso batean jaiotzen saiatzen da. Eraldaketa honen hasieran, ordea, flaskoa apurtu eta homunkulua hil egiten da.[10]
Fikzio modernoa
[aldatu | aldatu iturburu kodea]XIX. menderako, gizon artifizialei eta pentsamendu-makinei buruzko ideiak oso ezagunak ziren fikzioan, hala nola Mary Shelley-ren «Frankenstein» edo Karel Čapek-en «R.U.R.» (Rossum's Universal Robot). Saiakera espekulatiboek, hala nola Samuel Butlerren "Darwin among the Machines" eta Edgar Allan Poeren "Maelzel's Chess Player", gizarteak adimen artifizialeko makinekiko duen interesa islatzen zuten. AA gai arrunta da gaur egun ere zientzia-fikzioan.[11]
Arrazoibide formala
[aldatu | aldatu iturburu kodea]Adimen artifiziala giza pentsamenduaren prozesua mekanizatua izan daitekeelako ustean oinarritzen da. Arrazoibide mekaniko edo «formalaren» azterketak historia luzea du. Txinatar, indiar eta greziar filosofoek dedukzio formaleko metodo egituratuak garatu zituzten Kristo aurreko lehen milurtekorako.
Haien ideiak mendeetan zehar garatu zituzten filosofoek, hala nola Aristotelesek (silogismoaren azterketa formala eman zuena),[12] Euklidesek (bere elementuak arrazoiketa formalaren eredu izan ziren), al-Juarismik (aljebra garatu eta «algoritmo» hitzari izena eman zionak) eta filosofo eskolastiko europarrek, hala nola Guillermo de Ockham eta Duns Scotok.
Ramon Llull filosofo espainiarrak (1232-1315) makina logikoak garatu zituen, ezagutza bide logikoen bidez garatu ahal izateko;[13] Llullek bere makinak entitate mekaniko gisa deskribatu zituen, oinarrizko egiak eta ukaezinak eragiketa logiko sinpleen bidez konbinatu zitzaketenak, ahalik eta ezagutza gehien sortzeko. Llullen obrak eragin handia izan zuen Gottfried Leibnizengan, azken honek bere ideiak birformulatu zituen.[14]

XVII. mendean, Leibniz, Thomas Hobbes eta René Descartes-ek pentsamendu arrazional oro aljebra edo geometria bezain sistematiko bihurtzeko aukera aztertu zuten.[15] Hobbesek Leviatanen idatzi zuen: «Arrazoia... kalkulatzea besterik ez delako, hau da, batzea eta kentzea».[16] Leibnizek arrazoiketaren hizkuntza unibertsal bat imajinatu zuen, characteristica universalis, argudiaketa kalkulura murriztuko lukeena,«ez legoke bi filosoforen arteko liskarraren premia handiagorik bi kontulariren artekoa baino. Izan ere, nahikoa litzateke haien arkatzak eskuan hartu, haien arbeletara jaitsi eta elkarri esatea (lagun bat lekuko, nahi balute): Kalkula dezagun».[17] Horrela, filosofo hauek sinbolo fisikoen sistemaren hipotesia artikulatzen hasi ziren, AAren ikerketaren fede gidari bihurtuko zena.
Logika matematikoaren azterketak adimen artifiziala onargarri bihurtu zuen aurrerapena ekarri zuen. Haren oinarriak, Booleren Pentsamenduaren legeak eta Fregeren Begriffsschrift bezalako obrekin finkatu ziren.[18] Frege, Russell eta Whitehead-en sisteman oinarrituta, matematikaren oinarrien tratamendu formala aurkeztu zuten Principia Mathematica maisulanean, 1913an. Russellen arrakastak inspiratuta, David Hilbertek 20ko eta 30eko hamarkadetako matematikariei erronka bota zien funtsezko galdera honi erantzuteko: «formalizatu al daiteke arrazoibide matematiko osoa?».[19] Bere galdera Gödelen osagabetasun frogagatik erantzun zen, Turingen makina [20] eta Churchen Lambda kalkuluagatik.
Bere erantzuna harrigarria izan zen bi alderditan. Lehenik, frogatu zuten bazirela logika matematikoaren bidez lor zitzakeenaren mugak. Baina bigarrenik (eta garrantzitsuagoa AArentzat), bere lanak iradoki zuen ezen, muga horien barruan, edozein arrazoibide matematiko mekanizatu zitekeela. Church-Turingen tesiaren arabera, gailu mekaniko batek, 0 eta 1 bezalako sinbolo sinpleak manipulatuz, dedukzio matematikoko edozein prozesu bururagarri imitatu zezakeen.[21] Ideia gakoa Turingen makina izan zen, sinbolo abstraktuen manipulazioaren funtsa hartu zuen eraikuntza teoriko sinplea.[22]Asmakizun horrek makina pentsalarien aukera eztabaidatzen hasteko inspirazioa emango lieke zientzialari batzuei.
Konputazio-zientziak
[aldatu | aldatu iturburu kodea]Kalkulagailuak pertsona askok diseinatu eta eraiki zituzten historian zehar, besteak beste, Gottfried Leibniz, Joseph Marie Jacquard, Charles Babbage, Percy Ludgate, Leonardo Torres Quevedo, Vannevar Bush, eta beste batzuek. Ada Lovelacek Babbageren makina «makina pentsatzailea edo... arrazoitzailea» zela espekulatu zuen, baina ohartarazi zuenez, «desiragarria da makinaren botereei dagokienez neurriz gaineko ideiak sortzeko aukeraren aurrean babestea». [23][24]
Lehenengo konputagailu modernoak Bigarren Mundu Gerrako makina masiboak izan ziren (Konrad Zuse-ren Z3, Alan Turing-en Heath Robinson eta Colossus, eta Berry Pensilvaniako Unibertsitatean).[25] ENIAC Alan Turingek ezarritako eta John von Neumannek garatutako oinarri teorikoetan oinarritu zen, eta eragin handiena zuena zela frogatu zuen. [25]
AAren sorrera (1941-56)
[aldatu | aldatu iturburu kodea]Makina pentsatzaileei buruzko lehen ikerketak 1930etik 1950era bitarteko hamarkaden artean garrantzitsuak bihurtu ziren ideien bateratzean oinarritu ziren. Neurologian berriki egindako ikerketek frogatu zuten garuna neurona-sare elektriko bat zela, 'dena edo ezer ez' motako pultsuen bidez funtzionatzen zuena. Norbert Wienerren zibernetikak sare elektrikoen kontrola eta egonkortasuna deskribatu zituen. Claude Shannonen informazioaren teoriak seinale digitalak deskribatu zituen (hau da, «dena edo ezer ez» seinaleak). Alan Turingen konputazioaren teoriak edozein konputazio modu digitalki deskriba zitekeela frogatu zuen. Ideia horien arteko loturak iradoki zuen posible izan zitekeela «garun elektroniko» bat eraikitzea.
1940ko eta 1950eko hamarkadetan, hainbat arlotako(matematika, psikologia, ingeniaritza, ekonomia eta zientzia politikoak) zientzialari mordoa AAren geroko ikerketarako funtsezkoak izango ziren zenbait ikerketa-norabide aztertu zituen.[26]Alan Turing «adimen artifizialaren» aukera teorikoa serioski ikertzen lehenengoetako bat izan zen. «Adimen artifizialeko ikerketa» 1956an sortu zen diziplina akademiko gisa.[27]
Turingen testa
[aldatu | aldatu iturburu kodea]Artikulu nagusia Turingen testa

1950ean, Turingek «Computing Machinery and Intelligence» izeneko artikulu historiko bat argitaratu zuen, zeinetan pentsatzen duten makinak sortzeko aukeraz espekulatzen zuen. [28]Artikuluan, «pentsatzea» definitzen zaila dela adierazi zuen, eta bere Turing proba famatua asmatu zuen: Makina batek gizaki batekin elkarrizketa batetik bereizezina izango litzatekeen elkarrizketa bat (teletipo baten bidez) eduki ahal izango balu, orduan zentzuzkoa zen makina «pentsatzen» ari zela esatea. Arazo honen bertsio sinplifikatu horrek aukera eman zion Turingi modu sinesgarrian argudiatzeko «makina pentsatzaile» bat gutxienez posible zela, eta artikuluak proposizioaren objekziorik ohikoenei erantzun zien.
Neurona-sare artifizialak
[aldatu | aldatu iturburu kodea]Walter Pitts-ek eta Warren McCulloch-ek idealizatutako neurona artifizialen sareak aztertu zituzten eta funtzio logiko sinpleak nola egin zitzaketen erakutsi zuten 1943an.[29][30]Ondorengo ikertzaileek sare neuronal deituko zutena deskribatzen lehenak izan ziren.[31]Turingen 1936ko «Zenbaki konputagarriei buruz» artikuluak eragin zion artikuluari, antzeko bi egoeratako neurona boolearrak erabiliz, baina bera funtzio neuronalari aplikatzen lehena izan zen. Pittsek eta McCullochek inspiratutako ikasleetako bat Marvin Minsky izan zen, une horretan 24 urteko graduondoko ikaslea zena. 1951n, Minsky eta Dean Edmonds-ek sare neuronaleko lehen makina eraiki zuten, SNARC izendatua.
Robot zibernetikoak
[aldatu | aldatu iturburu kodea]1950eko hamarkadan, W. Gray Walterren dortokak eta Johns Hopkinsen Piztia bezalako robot esperimentalak eraiki ziren. Makina horiek ez zuten konputagailurik, ez elektronika digitalik, ez arrazonamendu sinbolikorik erabiltzen; zirkuitu analogikoen bidez erabat kontrolatuta zeuden. 2024ko bera adina Adimen artifizialean oinarritutako robot txakur bat: etxeko konpainia batetik laguntza profesional bateraino NVIDIA Jetson Orin ertzeko plataforma informatikoaren bidez aktibatutako txakur robot baten aurkezpena.
Adimen artifiziala jolasetan
[aldatu | aldatu iturburu kodea]1951n, Manchesterreko Unibertsitateko Ferranti Mark 1 makina erabiliz, Christopher Stracheyk dama-programa bat idatzi zuen eta Dietrich Prinzek xake-programa bat.[32]Arthur Samuelen dama-programa, 1959ko «Dama-jokoa erabiliz ikasketa automatikoari buruzko zenbait azterketa» artikuluaren gaia, azkenean aditu bati desafio egiteko adinako trebetasuna lortu zuen.[33]
Arrazoibide sinbolikoa eta logikaren teoria
[aldatu | aldatu iturburu kodea]Ordenagailu digitaletarako sarbidea berrogeita hamarreko hamarkadaren erdialdean egin zenean, zientzialari batzuek senez onartu zuten zenbakiak manipula zitzakeen makina batek sinboloak ere manipula zitzakeela, eta sinboloen manipulazioa giza pentsamenduaren funtsa izan zitekeela. Hau pentsatzeko makinak sortzeko ikuspegi berri bat izan zen.[34]
1955ean, Allen Newellek eta Herbert A. Simonek "Logic Theorist" sortu zuten, J. C. Shawren laguntzarekin.Programak lehen 52 teoremetatik 38 frogatuko zuen Russell eta Whiteheaden Principia Mathematica-n, eta froga berri eta dotoreagoak aurkituko lituzke batzuentzat.[35]Simonek esan zuen «gogo/gorputza problema beneragarria ebatzi» zutela, «materiaz osatutako sistema batek gogoaren propietateak nola izan ditzakeen azalduz».[36]Hori izan zen John Searlek geroago «AA indartsua» deituko zuen jarrera filosofikoaren lehen adierazpenetako bat: makinek gogoak eduki ditzaketela, giza gorputzek egiten duten bezala.[37]
Iraultza kognitiboa
[aldatu | aldatu iturburu kodea]1956ko udazkenean, Newellek eta Simonek Logic Theorist aurkeztu zuten Massachusettseko Institutu Teknologikoan (MIT) Informazioaren Teoriaren Interes Bereziko Taldeak egindako bilera batean. Bilera berean, Noam Chomskyk bere gramatika sortzailea eztabaidatu zuen, eta George Millerrek bere artikulu historikoa deskribatu zuen: «Zenbaki magikoa zazpi, bi gehiago edo gutxiago». Millerrek zera idatzi zuen: «Sinposiotik atera nintzen uste osoz, intuitiboa bainoago arrazionala, psikologia esperimentala, hizkuntzalaritza teorikoa eta prozesu kognitiboen konputagailu bidezko simulazioa osotasun handiago baten piezak zirela guztiak».[38]
Bilera horrek «iraultza kognitiboaren» hasiera markatu zuen, diziplina arteko paradigma aldaketa bat psikologian, filosofian, konputazio zientzietan eta neurozientzian. Adimen artifizial sinbolikoaren, hizkuntzalaritza sortzailearen, zientzia kognitiboaren, psikologia kognitiboaren, neurozientzia kognitiboaren eta konputazionalismoaren eta funtzionalismoaren eskola filosofikoen azpieremuak sortzeko inspirazioa izan zen. Arlo horiek guztiek zerikusia zuten tresnak erabili zituzten gogoa modelatzeko, eta edozein horietako batean aurkitutako emaitzak garrantzitsuak ziren besteentzat.
Ikuspegi kognitiboari esker, ikertzaileek «objektu mentaltzat» hartu zituzten pentsamenduak, planak, helmugak, gertaerak edo oroitzapenak, sarritan sare funtzionaletan goi-mailako sinboloak erabiliz aztertuak. Aurreko paradigmek, hala nola konduktismoak, objektu horiek «ikuzezin» gisa debklaratu zituzten. Objektu mental sinbolikoak AAren ikerketa eta finantziazio-gune nagusi bihurtuko ziren hurrengo hamarkadetan.
Lehen arrakastak (1956-1974)
[aldatu | aldatu iturburu kodea]Dartmouth Tailerraren ondorengo urteetan garatutako programak, jende gehienarentzat, "harrigarriak" besterik ez ziren. Ordenagailuak aljebra hitzen arazoak konpontzen ari ziren, geometrian teoremak frogatzen eta ingelesez hitz egiten ikasten. Garai hartan gutxik sinetsiko zuen, makinen bidezko halako portaera "adimentsua" posible zenik. Ikerlariek baikortasun bizia adierazi zuten bai pribatuan bai testuetan, 20 urte baino lehen makina guztiz adimentsu bat eraikiko zela iragarriz.[39] Gobernuko agentziek, hala nola Defentsa Ikerketa Aurreratuko Proiektuen Agentziak (DARPA, orduan "ARPA" izenez ezaguna), dirua jarri zuten.[40] Adimen Artifizialeko laborategiak Britainia Handiko eta AEBetako unibertsitate batzuetan sortu ziren 1950eko azken hamarkadan eta 1960ko hamarkadaren hasieran.
Programa arrakastatsu asko eta zuzendaritza berriak izan ziren 50eko hamarkadaren amaieran eta 60ko hamarkadan. Eragin handienetakoak hauek izan ziren:
Arrazoitzea, planifikatzea eta arazoak konpontzea bilaketa gisa
[aldatu | aldatu iturburu kodea]Hasierako AA programa askok oinarrizko algoritmo bera erabiltzen zuten. Helbururen bat lortzeko (adibidez, partida bat irabaztea edo teorema bat frogatzea), pausoz pauso joan ziren hurbiltzen (mugimendu bat edo dedukzio bat eginez), labirinto batean zehar bilatuz bezala, irteerarik gabeko kale batera iristen ziren bakoitzean atzera eginez. Zailtasun nagusia, arazo askorentzat, "labirintoan" bide posibleen kopurua handiegia izatea zen. Ikertzaileek bilaketa-espazioa murriztuko lukete, konponbidera nekez iristeko bideak ezabatuko lituzketen heuristikoak erabiliz.
Newell eta Simon algoritmo horren bertsio orokor bat sortzen saiatu ziren "General Problem Solver" izeneko programa batean. Beste programa "bilatzaile" batzuk gai izan ziren geometrian eta aljebran problemak ebazteko, hala nola Herbert Gelernterren Geometriaren Teorema Prover (1958) eta James Slagle Minskyren ikasleak 1961ean idatzitako Symbolic Automatic Integrator (SAINT). Beste programa batzuk helburu eta azpihelburuen bidez bilatzen ziren ekintzak planifikatzeko, hala nola Shakey robotaren portaera kontrolatzeko Stanforden garatutako STRIP sistema.
Hizkuntza naturala
[aldatu | aldatu iturburu kodea]
AAren ikerketaren helburu garrantzitsu bat konputagailuei ingelesa bezalako hizkuntza naturaletan komunikatzeko aukera ematea da. Arrakasta aurrekaria Daniel Bobrow-en STUDENT programa izan zen, batxilergoko aljebra arazoak konpon zitzakeena.[41]
Sare semantiko batek kontzeptuak adierazten ditu (adib. "etxea", "atea") nodo gisa, eta kontzeptuen arteko harremanak nodoen arteko lotura gisa (adib. "has-a"). Sare semantiko bat erabili zuen lehen AI programa Ross Quillianek idatzi zuen eta bertsiorik arrakastatsuena Roger Schanken Dependentzia kontzeptualaren teoria izan zen.
Joseph Weizenbaum-en ELIZAk hain errealistak ziren elkarrizketak burutu zitzakeen, non erabiltzaileak noizbehinka engainatzen zituzten gizaki batekin komunikatzen ari zirela pentsatuz, eta ez programa informatiko batekin (ELIZA efektua). Baina, ala ere, ELIZAk esan zitzaiona errepikatu zuen, gramatika-arau gutxi batzuekin bere erantzuna birfraktatuz. ELIZA izan zen lehenengo chatbot-a.
Mikromunduak
[aldatu | aldatu iturburu kodea]60ko hamarkadaren amaieran, MITko AA Laborategiko Marvin Minskyk eta Seymour Papert-ek AAren ikerketak artifizialki sinpleak diren eta mikromunduak izenez ezagutzen diren egoeretan zentratu behar zirela proposatu zuten. Adierazi zutenez, fisika bezalako zientzia arrakastatsuetan, oinarrizko printzipioak hobeto ulertu ohi ziren marruskadurarik gabeko planoak edo gorputz guztiz zurrunak bezalako eredu sinplifikatuak erabiliz. Ikerketaren zati handi bat "blokeen munduan" zentratu zen, gainazal lau batean arrapatutako hainbat forma eta tamainatako bloke koloredunez osatua.
Paradigma horrek lan berritzailea ekarri zuen ikusmen automatikoan Gerald Sussmanek, Adolfo Guzmanek, David Waltzek ("murrizketen hedapena" asmatu zuena), eta bereziki Patrick Winstonek. Aldi berean, Minskyk eta Papertek blokeak pilatu zitzakeen robot beso bat eraiki zuten, blokeen mundua biziaraziz. Terry Winograden SHRDLUk ingelesezko esaldi arruntetan mikro-munduari buruz komunikatu, operazioak planifikatu eta exekutatu zitzakeen.
Pertzeptroiak eta lehen neurona-sareak
[aldatu | aldatu iturburu kodea]1960ko hamarkadan, finantziazioa batez ere AA sinbolikoa ikertzen zuten laborategietara bideratu zen, hala ere, hainbat pertsonak sare neuronaletan ikertzen jarraitu zuten.

Pertzeptroia, geruza bakarreko neurona-sarea, 1958an sartu zuen Frank Rosenblattek (Bronxeko Goi Mailako Zientzia Eskolan Marvin Minskyren eskolakidea izandakoa). AAko ikertzaile gehienek bezala, haien botereari buruz baikor agertu zen, pertzeptroi bat "denborarekin gai izan daitekeela ikasteko" aurreikusiz, erabakiak hartzeko eta hizkuntzak itzultzeko. Rosenblatt Office of Naval Research-ek finantzatu zuen batez ere.[42]
Bernard Widrow eta bere ikasle Ted Hoffek ADALINE (1960) eta MADALINE (1962) eraiki zituzten, 1000 pisu erregulagarri zituztenak. Stanford Research Institutuko talde batek, Charles A. Rosen eta Alfred E. (Ted) Brain buru zituela, MINOS I (1960) eta II (1963) izeneko sare neuronaleko bi makina eraiki zituen, batez ere AEBetako Armadako Seinalizazio Gorputzak finantzatuak. MINOS II.ak 6600 pisu doigarri zituen, eta SDS 910 ordenagailu batekin kontrolatzen zen MINOS III (1968) izeneko konfigurazioan, armadako mapetan ikurrak sailka zitzakeena eta Fortran kode-orrietan eskuz inprimatutako karaktereak ezagutu zitzakeena. Neurona-sareen ikerketa gehienak hasierako garai horretan, neurrira egindako hardwarea eraiki eta erabili zuten, ordenagailu digitaletan simulatu beharrean.
Hala ere, neurri batean emaitza faltagatik eta beste neurri batean AA ikerketa sinbolikoen lehiagatik, MINOS proiektua finantzaketarik gabe geratu zen 1966an. Rosenblattek ez zuen finantzaketarik lortu 1960ko hamarkadan. 1969an, ikerketa bat-batean gelditu zen Minsky and Papert-en 1969ko Perceptrons liburuaren argitalpenarekin. Pertzeptroiek egin zezaketenari muga handiak zeudela eta Rosenblatten iragarpenak izugarri puztu zirela iradokitzen zuen. Liburuaren ondorioa izan zen hamar urtez ez zela ia ikerketarik finantzatu <i>konexionismoan</i>. Gobernuaren finantzaketarako lehia sare neuronalen gaineko AAren ikuspegi sinbolikoen garaipenarekin amaitu zen.
Minsky (SNARCn lanean aritutakoa) AA konexionista puruaren aurkari sutsu bihurtu zen. Widrow (ADALINEn lanean aritutakoa) seinale adaptatiboen prozesamendura jo zuen. SRI taldeak (MINOS lantzen zuena) AA sinbolikora eta robotikara jo zuen.
Arazo nagusia geruza anitzeko sareak entrenatzeko ezintasuna izan zen (atzerapenaren bertsioak beste alor batzuetan erabili ziren jada baina ikertzaile hauentzat ezezaguna zen). AA-eko komunitatea 80ko hamarkadan jabetu zen atzera begiraketaz, eta, XXI. mendean, sare neuronalek izugarrizko arrakasta izango zuten, Rosenblatten iragarpen baikor guztiak betez. Rosenblatt ez zen hori ikusteko bizi izan, ordea, 1971n txalupa istripu batean hil baitzen.
Baikortasuna
[aldatu | aldatu iturburu kodea]AAko ikertzaileen lehen belaunaldiak iragarpen hauek egin zituzten haien lanari buruz:
- 1958, H. A. Simon eta Allen Newell: "hamar urte barru ordenagailu digital bat munduko xake txapelduna izango da" eta "hamar urte barru ordenagailu digital batek teorema matematiko berri garrantzitsu bat aurkitu eta frogatuko du".[43]
- 1965, H. A. Simon: "makinak gai izango dira, hogei urte barru, gizakiak egin dezakeen edozein lan egiteko".[44]
- 1967, Marvin Minsky: "Belaunaldi baten barruan... 'adimen artifiziala' sortzeko arazoa funtsean konponduko da".[45]
- 1970, Marvin Minsky (Life aldizkarian): "Hiru urtetik zortzi urtera bitartean batez besteko gizaki baten adimen orokorra duen makina bat izango dugu. "
Finantziazioa
[aldatu | aldatu iturburu kodea]1963ko ekainean, MITek 2,2 milioi dolarreko diru-laguntza jaso zuen sortu berria zen Advanced Research Projects Agency (ARPA, geroago DARPA bezala ezagutua) erakundearen eskutik. Dirua MAC proiektua finantzatzeko erabili zen, Minskyk eta McCarthyk bost urte lehenago sortutako "AI Group" subsumitu zuena. DARPAk urtero 3 milioi dolar ematen jarraitu zuen 70eko hamarkadara arte. DARPAk antzeko diru-laguntzak eman zizkien Carnegie Mellon Unibertsitateko Newell eta Simonen programari eta Stanford Unibertsitateko AA Laborategiari, John McCarthyk 1963an sortua. Beste AA laborategi garrantzitsu bat Edinburgoko Unibertsitatean ezarri zuen Donald Michiek 1965ean. Lau erakunde horiek AAren ikerketa eta finantzaketa gune nagusiak izaten jarraituko zuten akademian urte luzez.
Dirua baldintzapean eman zen: J. C. R. Lickliderrek, orduan ARPAko zuzendaria zenak, uste zuen bere erakundeak "pertsonak finantzatu behar zituela, ez proiektuak" eta aukera ematen zien ikertzaileei interesatzen zitzaien bidea egiteko. Horrek MITen giro aske bat sortu zuen, hacker kultura sorrarazi zuena, baina kezka-gabeko ikuspegi horrek ez zuen asko iraun.[46]
Lehen AA-ren "negua" (1974–1980)
[aldatu | aldatu iturburu kodea]1970eko hamarkadan, AAk atzerapausoak jasan zituen kritika eta finantzan. AA-eko ikertzaileek ez zuten lortu aurre egin behar zieten arazoen zailtasuna antzematea. Haien baikortasun ikaragarriak itxaropen publikoa izugarri handitu zuten, bestalde, itzemandako emaitzak gauzatzen ari ez zirenez, AA-ari zuzendutako finantzaketa asko murriztu zen. Arrakasta ezak adierazten zuen garai hartan AA-eko ikertzaileak erabiltzen ari ziren teknikak ez zirela nahikoak beren helburuak lortzeko.
Atzerapauso horiek ez zuten eraginik izan AA-ren arloaren hazkundean eta aurrerapenean. Finantzaketa murrizketek laborategi handi gutxi batzuetan baino ez zuten eragin eta kritikak alde batera utzi ziren neurri handi batean. Alorreko interes publiko orokorrak hazten jarraitu zuen, ikertzaile kopurua izugarri handitu zen, eta ideia berriak aztertu ziren programazio logikoan, zentzuzko arrazoiketan eta beste arlo askotan. Thomas Haigh historialariak 2023an "negurik" ez zegoela argudiatu zuen eta Nils Nilsson AA-eko ikertzaileak garai hau AA-ean lan egiteko unerik zirraragarriena zela esan zuen.
Arazoak
[aldatu | aldatu iturburu kodea]Hirurogeita hamarreko hamarkadaren hasieran, AA programen gaitasunak mugatuak ziren. Ikusgarrienek ere konpondu behar zituzten arazoen bertsio tribialak baino ezin zituzten erabili; programa guztiak, esaterako, "jostailuak" ziren. AA-eko ikertzaileak hainbat mugarekin topo egiten hasiak ziren, hamarkada batzuk geroago soilik konkistatuko zirenak, eta 2020ko hamarkadan oraindik eremua estilizatzen duten beste batzuk:
- Ordenagailuaren potentzia mugatua: ez zegoen memoria edo prozesatzeko abiadura nahikoa ezer benetan erabilgarria lortzeko. Adibidez: Ross Quillianen hizkuntza naturalari buruzko lan arrakastatsua 20 hitz eskaseko hiztegiarekin frogatu zen, hori baitzen oroimenean sartzen zen guztia. Hans Moravecek 1976an argudiatu zuen ordenagailuak milioika aldiz ahulegoak zirela adimena erakusteko. Analogia bat iradoki zuen: adimen artifizialak potentzia informatikoa eskatzen du, hegazkinek zaldi-potentzia behar duten modu berean. Atalase jakin batetik behera, ezinezkoa da, baina, potentzia handitu ahala, azkenean erraza bihur liteke. "Zaldi indar nahikoarekin", idatzi zuen, "edozerk egingo du hegan".
- Intrakortasuna eta leherketa konbinatorioa: 1972an Richard Karp-ek (Stephen Cook-en 1971ko teoreman oinarrituta) frogatu zuen soilik denbora esponentzialean ebatz daitezkeen arazo asko daudela. Arazo horiei irtenbide optimoak aurkitzeko, denbora informatiko aparta behar da, arazoak tribialak direnean izan ezik. Muga hori bilaketa-zuhaitzak erabiltzen zituzten AAko programa sinboliko guztiei aplikatzen zitzaien, eta AAk erabiltzen zituen "jostailuzko" irtenbide asko ez zirela inoiz sistema erabilgarrietara eskalatuko esan nahi zuen.
- Moravec-en paradoxa: AAren lehen ikerketek arrakasta handia izan zuten konputagailuek lan "adimendunak" egitea lortzen, hala nola teoremak probatzea, geometria arazoak konpontzea eta xakean jokatzea. Zeregin adimentsu horietan izan zuten arrakastak konbentzituarazi zuen jokaera adimentsuaren arazoa neurri handi batean konponduta zegoela. Hala ere, erabat huts egin zuten "adimenik gabeko" zereginetan aurrera egitean, hala nola aurpegia ezagutzea edo gela bat ezerekin talka egin gabe zeharkatzea. 1980ko hamarkadarako, ikertzaileak konturatuko ziren arrazonamendu sinbolikoa guztiz desegokia zela pertzepzio eta lan sentsorial horietarako, eta ikuspegi horrek mugak zituela.
- Zentzumenen ezagutzaren zabaltasuna: Adimen artifizialeko aplikazio garrantzitsu askok, hala nola ikusmenak edo lengoaia naturalak, munduari buruzko informazio kopuru izugarriak behar dituzte: programak ideiaren bat izan behar du zeri begira egon daitekeen edo zertaz ari den. Horretarako, programak munduari buruz haur batek duen ezagutza gehiena izan behar du. Ikertzaileak laster ohartu ziren informazio ugari zela, milaka milioi gertakari atomikorekin. 1970ean inork ezin zuen datu-base handi bat eraiki eta inork ez zekien nola ahal zezakeen programa batek hainbeste informazio ikasi.
- Zentzuzko arrazoiketa irudikatuz: Erlazionatutako hainbat arazo agertu ziren ikertzaileak logika formala edo sinboloak erabiliz zentzuzko arrazoiketa irudikatzen saiatu zirenean. Dedukzio oso arrunten deskribapenek gero eta luzeagoak izateko joera zuten, zenbat eta gehiago landu, orduan eta salbuespen, argibide eta bereizketa gehiago behar baitziren. Hala ere, jendeak kontzeptu arruntetan pentsatzen zuenean, ez zen definizio zehatzetan oinarritzen, baizik eta ehunka zehaztugabeko baieztapen egiten zituela iruditzen zitzaion, eta, beharrezkoa zenean, zentzuzko ezagutza osoa erabiliz zuzentzen zituen. Gerald Sussmanek ikusi zuen "funtsean zehaztugabeak diren kontzeptuak deskribatzeko hizkuntza zehatza erabiltzeak ez dituela zehatzagoak egiten".[47]
Finantzaketaren jaitsiera
[aldatu | aldatu iturburu kodea]AAren ikerketa finantzatzen zuten agentziak, hala nola Britainia Handiko gobernua, DARPA eta National Research Council (NRC) aurrerapen faltaz ohartu ziren eta, azkenean, AA indirektuaren ikerketarako ia finantzaketa guztia moztu zuten. 1966an hasi zen eredua, Hizkuntzaren Prozesamendu Automatikorako Aholku Batzordearen (ALPAC) txostenak itzulpen automatikoko ahaleginak kritikatu zituenean. 20 milioi dolar gastatu ondoren, NRCk laguntza guztia amaitu zuen. 1973an, Erresuma Batuko AAren ikerketaren egoerari buruzko Lighthill txostenak kritikatu zuen AAk ez zituela bere "helburu handiak" lortu, eta ondorioz, herrialde horretako AA-ren ikerketa desegitea ekarri zuen. (Txostenak zehazki eztanda konbinatorioaren problema AAren akatsen arrazoiarengatik zela aipatu zuen.) DARPA erabat etsita zegoen CMUn Speech Understanding Research programan lan egiten zuten ikertzaileekin, eta urteko 3 milioi dolarreko diru-laguntza bat bertan behera utzi zuen.
Hans Moravecek lankideen iragarpen irrealistei egotzi zien krisia. "Ikertzaile asko gero eta esajerazio handiagoko amaraunean harrapatuta geratu ziren. « Hala ere, bazegoen beste arazo bat: 1969an Mansfieldeko Zuzenketa onartu zenetik, DARPAk gero eta presio handiagoa zuen «misioetara bideratutako zuzeneko ikerketa, zuzendu gabeko oinarrizko ikerketa baino gehiago» finantzatzeko". 60ko hamarkadan hasitako esplorazio sortzaile eta freewheeling-aren finantzaketa ez zen DARPAren eskutik etorriko, horren ordez dirua helburu argiak zituzten proiektu zehatzetara bideratu baitzuen, hala nola tanke autonomoetara eta guduak kudeatzeko sistemetara.
Laborategi handiak (MIT, Stanford, CMU eta Edinburgo) beren gobernuen laguntza jasotzen aritu ziren, eta, hura kendu zutenean, horietxek izan ziren aurrekontuen murrizketek eragin larriena izan zuten leku bakarrak. Erakunde horietatik kanpo zeuden milaka ikerlariak eta alorrarekin bat egiten zuten beste milaka asko eta asko eraginik gabe geratu ziren.
Kritika filosofikoak eta etikoak
[aldatu | aldatu iturburu kodea]Hainbat filosofok eragozpen handiak zituzten AA-eko ikertzaileak egiten ari ziren baieztapenetan. Lehenetariko bat John Lucas izan zen, Gödelen osotasunik ezaren teoremak sistema formal batek (programa informatiko batek, adibidez) adierazpen batzuen egia inoiz ezin zuela ikusi erakusten zuela argudiatu zuena, gizaki batek, aldiz, bai. Hubert Dreyfusek 1960ko hamarkadako promesa hautsiak barregarri utzi zituen eta AA-ren baieztapenak kritikatu zituen, giza arrazoiketak argudiatuz, berez, "sinboloen prozesamendu" oso gutxi zekarrela eta "know how" inkontziente, instintibo eta gorpuztu ugari. John Searle-ren Chinese Room argumentua, 1980an aurkeztua, saiatu zen erakusten programa batek ezin zuela esan erabiltzen dituen sinboloak "ulertzen" zituela ("intentzionalitatea" izeneko nolakotasuna). Ikurrek makinarentzat esanahirik ez badute, argudiatu zuen Searlek, orduan makina ezin da "pentsamendu" gisa deskribatu.
AAko ikertzaileek ez zituzten kriterio horiek serio hartu. Askoz ere berehalakoagoak eta larriagoak ziruditen intrakortasuna eta zentzuzko ezagutza bezalako arazoek. Ez zegoen argi zer alde zegoen "know how" edo "intentzionalitatea" benetako programa informatiko bati egina. MITeko Minskyk Dreyfus eta Searle-ri buruz esan zuen "gaizki ulertzen dute, eta ez zaie jaramonik egin behar". Dreyfusek, MITen ere irakasten zuenak, balde hotz bat jaso zuen: geroago esan zuen AAko ikertzaileak "ez zirela nirekin bazkaltzen ikusten ausartzen". Joseph Weizenbaum, ELIZAren egilea, Dreyfusen jarreren kritikari nabarmena ere izan zen, baina "nahita utzi zuen agerian AAko bere kideek Dreyfusi emandako tratua ez zela gizaki bat tratatzeko modua", eta ez zela profesionala eta umekeria zela. [48][49]
Weizenbaum AA-ari buruzko zalantza etiko larriak izaten hasi zen Kenneth Colbyk ELIZAn oinarritutako "elkarrizketa psikoterapeutikoa egin dezakeen programa informatikoa" idatzi zuenean. Weizenbaum deserosotu egin zen Colbyk adimenik gabeko programa bat tresna terapeutiko serio gisa ikusi zuelako. Feudo bat hasi zen, eta egoera ez zen lagungarri izan Colbyk Weizenbaum programan egindako ekarpenagatik kreditatu ez zuenean. 1976an, Weizenbaum-ek Computer Power and Human Reason argitaratu zuen, adimen artifizialaren erabilera okerrak giza bizitzari balioa kentzeko ahalmena duela argudiatuz.
Logika Stanford, CMU eta Edinburgon
[aldatu | aldatu iturburu kodea]Logika 1958an sartu zen John McCarthyren Advisory Taker-en proposamenean. 1963an, J. Alan Robinsonek ordenagailuetan dedukzioa ezartzeko metodo sinple bat aurkitu zuen, bereizmenaren eta bateratzearen algoritmoa. Hala ere, McCarthyk eta bere ikasleek 1960ko hamarkadaren amaieran saiatu zituzten inplementazioak, bereziki trataezinak ziren: programek urrats kopuru astronomikoak behar zituzten teorema sinpleak frogatzeko. Logikaren ikuspegi zabalago bat 1970eko hamarkadan garatu zuen Robert Kowalskik Edinburgoko Unibertsitatean, eta laster horrek Alain Colmerauer eta Philippe Roussel ikertzaile frantsesekin elkarlana ekarri zuen, Prolog logika programatzeko lengoaia arrakastatsua sortu zutenak. Prologek logikaren azpimultzo bat erabiltzen du (Horn klausulak, "arauekin" eta "ekoizpen-arauekin" estuki lotuta), konputazio trazagarria ahalbidetzen dutenak. Arauek eragina izaten jarraitu zuten, Edward Feigenbaumen sistema adituei eta Allen Newell eta Herbert A. Simonen lan jarraituari oinarri bat emanez, Soar eta bere kognizioaren teoria bateratuak ekarriko zituena.
Ikuspegi logikoaren kritikoek adierazi zuten, Dreyfusek bezala, gizakiek gutxitan erabiltzen zutela logika arazoak konpontzen zituztenean. Peter Wason, Eleanor Rosch, Amos Tversky, Daniel Kahneman eta beste psikologo batzuen esperimentuek frogapenak eman zituzten. McCarthyk erantzun zuen jendeak egiten duenak ez duela garrantzirik. Benetan behar dena arazoak konpon ditzaketen makinak direla argudiatu zuen —ez pertsonek bezala pentsatzen duten makinak—.
MITren "anti-logika" ikuspegia
[aldatu | aldatu iturburu kodea]McCarthyren planteamenduaren kritikoen artean MITeko herrialde osoko lankideak zeuden. Marvin Minsky, Seymour Papert eta Roger Schank "istorioen ulermena" eta "objektuen errekonozimendua" bezalako arazoak konpontzen saiatzen ari ziren, makina batek pertsona batek bezala pentsatzea eskatzen zutenak. "Aulki" edo "jatetxe" bezalako kontzeptu arruntak erabili ahal izateko jendeak normalean egiten zituen suposamendu ilogiko berdinak egin behar zituzten. Zoritxarrez, horrelako kontzeptu zehaztugabeak nekez irudikatzen dira logikan. MITek, horren ordez, zeregin jakin bat ebazten zuten idazketa programetan zentratzea aukeratu zuen, maila handiko definizio abstraktuak edo kognizioaren teoria orokorrak erabili gabe, eta errendimendua proba iteratiboen bidez neurtuta, lehen printzipioetako argudioen ordez. Schankek bere ikuspegi "anti-logikoak" scruffy gisa deskribatu zituen, McCarthy, Kowalski, Feigenbaum, Newell eta Simonek erabilitako paradigma txukunaren aurka.
1975ean, paper seminal batean, Minskyk adierazi zuen bere lankide ikertzaile asko tresna mota bera erabiltzen ari zirela: zerbaiti buruz ditugun zentzu oneko uste guztiak jasotzen dituen markoa. Adibidez, txori kontzeptua erabiliz gero, berehala burura datozkigu hainbat faktore: hegan egiten duela, zizareak jaten dituela eta horrelakoak onar genitzake (horietako bat ere ez da egia txori guztientzat). Minskyk suposizio horiek kategoria orokorrarekin lotzen zituen eta azpikategorientzako eta banakoentzako markoek heredatu zitzaketen, edo behar den bezala gainjarri. Egitura horiei marko deitu zien. Schankek "scripts" deitu zituen fotogramen bertsio bat erabili zuen ingelesezko ipuinei buruzko galderak arrakastaz erantzuteko. Fotogramak, azkenean, software ingeniaritzan oso erabiliak izango lirateke objektuetara bideratutako programazio izenarekin.
Logikariak erronkara igo ziren. Pat Hayesek zioen "fotograma gehienak" lehen mailako logikaren zatietarako sintaxi berri bat besterik ez direla". Baina adierazi zuenez, "itxuraz txikiak diren xehetasun bat edo bi daude, arazo asko ematen dituztenak, hala ere, batez ere ez-ordaintzeak".
Ray Reiterrek onartu zuenez, "ohiko logikak, lehen mailako logika, ez du arrazoitzeko behar diren oinarrizko ezagutzak egoki irudikatzeko adierazpen-ahalmenik". Lehen mailako logika gehitzea proposatu zuen, ondorio batek (besterik ezean) gordetzen duen mundu itxiaren suposizio batekin, bere kontrakoa erakutsi ezin bada. Halako suposizio bat markoekin arrazoitzean egindako zentzu onaren suposizioari nola dagokion erakutsi zuen. Era berean, Prolog-en ukapen-porrot gisa bere "baliokide prozesala" duela erakutsi zuen. Mundu itxiaren hipotesia, Reiterrek esan zuen bezala, ez da lehen mailako nozioa. Hala ere, Keith Clarkek erakutsi zuen ezeztapena, porrot finitu gisa, inplizituki ulertzen dela lehen ordenako logikaren definizioekin, termino ezberdinek pertsona desberdinak adierazten dituztela dioen izen bakarraren hipotesia barne.
1970eko hamarkadaren amaieran eta 1980ko hamarkadan zehar, lehen mailako logikaren hainbat hedapen garatu ziren, bai ezeztapenerako, programazio logikoan porrot gisa, bai modu orokorragoan arrazoitze lehenetsietarako. Kolektiboki, logika horiek logika ez-monotoniko gisa ezagutu dira.
Boom-a (1980–1987)
[aldatu | aldatu iturburu kodea]1980ko hamarkadan, mundu osoko korporazioek "sistema adituak" izeneko AA programaren itxura hartu zuten eta ezagutza AA-ren ikerketa nagusiaren ardatz bihurtu zen. Gobernuek finantzaketa handia eman zuten, hala nola Japoniako bosgarren belaunaldiko proiektu informatikoa eta Estatu Batuetako Konputazio Estrategikorako Ekimena. "Oro har, AA-ren industria 1980ko milioi batzuk dolarretatik 1988ko milaka milioi dolarretara pasatu zen."
Sistema adituen erabilpenaren hedapena
[aldatu | aldatu iturburu kodea]Sistema aditua ezagutza-domeinu zehatz bati buruzko galderei erantzuten dien edo arazoak konpontzen dituen programa da, adituen ezagutzatik eratortzen diren arau logikoak erabiliz. Lehenetariko adibideak Edward Feigenbaumek eta bere ikasleek garatu zituzten. Dendralek, 1965ean hasia, espektrometroen irakurketetatik abiatuta identifikatu zituen hitz kateak. MYCIN, 1972an garatua, odoleko gaixotasun infekziosoak diagnostikatu zituen. Planteamenduaren bideragarritasuna erakutsi zuten.
Sistema adituek ezagutza espezifikoen domeinu txiki batera mugatu ziren (ezagutza-arazo zentzuduna saihestuz) eta haien diseinu sinpleak nahiko erraza egin zuen programak eraiki eta gero aldatu ahal izateko behin kokatuta zeudenean. Dena dela, programak baliagarriak zirela frogatu zuten: AAk ordura arte lortu ezin izan zuen zerbait.
1980an, R1 izeneko sistema aditua osatu zen CMUn Digital Equipment Corporation enpresarentzat. Izugarrizko arrakasta izan zuen: 1986rako urtero 40 milioi dolar aurrezten zizkion enpresari. Mundu osoko korporazioak sistema adituak garatzen eta hedatzen hasi ziren eta 1985erako mila milioi dolar baino gehiago gastatzen ari ziren AAn, gehiena AAko barneko departamentuetara. Industria bat haiei laguntzeko hazi zen, Symbolics eta Lisp Machines bezalako hardware enpresak eta IntelliCorp eta Aion bezalako software enpresak barne.
Gobernuaren finantzaketa igoera
[aldatu | aldatu iturburu kodea]1981ean, Japoniako Nazioarteko Merkataritza eta Industria Ministerioak 850 milioi dolar gorde zituen Bosgarren belaunaldiko proiektu informatikorako. Haien helburuak programak idaztea eta makinak eraikitzea ziren, elkarrizketak aurrera eramateko, hizkuntzak itzultzeko, koadroak interpretatzeko eta gizakiek bezala arrazoitzeko.[50] Hasieran, Prolog aukeratu zuten proiekturako lengoaia informatiko nagusi gisa.
Beste herrialde batzuek programa propio berriekin erantzun zuten. Erresuma Batuak 350 milioi librako Alvey proiektua hasi zuen. Estatu Batuetako enpresen partzuergo batek Mikroelektronika eta Teknologia Informatiko Korporazioa (edo "MCC") eratu zuen AAko eta informazioaren teknologiako eskala handiko proiektuak finantzatzeko. DARPAk ere erantzun zuen, Konputazio Estrategikoko Ekimena sortuz eta AAn egindako inbertsioa hirukoiztuz 1984 eta 1988 artean.
Ezagutzaren iraultza
[aldatu | aldatu iturburu kodea]Sistema adituen ahalmena hauek zuten ezagutza adituetatik zetorren. 70eko hamarkadan zehar AA-ren ikerketa norabide berri batean bideratzen joan zen. “AAko ikertzaileak susmatzen hasiak ziren adimena oinarritu zitekeela ezagutza askotariko kantitate handiak modu desberdinetan erabiltzeko gaitasunean”, idatzi zuen Pamela McCorduckek. "1970eko hamarkadako lezio handi bat izan zen portaera adimentsua oso lotuta zegoela zeregin jakin bateko domeinu baten ezagutza, batzuetan ezagutza nahiko zehatza, tratatzearekin". Ezagutzan oinarritutako sistemak eta ezagutzaren ingeniaritza AA-ren ikerketaren ardatz nagusi bihurtu ziren 1980ko hamarkadan. Datu-base zabalek zentzuzko ezagutzaren arazoa konponduko zutela espero zen, eta zentzuzko arrazoiketak behar zuen laguntza emango zutela.
1980ko hamarkadan ikerlari batzuk zentzuzko ezagutza arazoari erasotzen saiatu ziren, pertsona korronte baten dakien ezagutza jasoko zituen datu-base masibo bat sortuz. Douglas Lenatek, Cyc izeneko datu-base bat hasi zuen eta lasterbiderik ez dagoela argudiatu zuen, makinek giza kontzeptuen esanahia jakiteko modu bakarra eskuz irakastea dela, kontzeptu bat aldi berean.
Norabide berriak 80. hamarkadan
[aldatu | aldatu iturburu kodea]Ezagutzaren irudikapen sinbolikoak eta arrazoiketa logikoak 80ko hamarkadan aplikazio erabilgarriak sortu eta finantzaketa masiboak jaso bazituen ere, oraindik ez zen gai pertzepzioan, robotikan, ikaskuntzan eta zentzuzko arazoak konpontzeko. Zientzialari eta ingeniari gutxi batzuk zalantzan jartzen hasi ziren ikuspegi sinbolikoa inoiz nahikoa izango ote zen zeregin horietarako, eta beste ikuspegi batzuk garatu zituzten, hala nola "konexionismoa", robotika, konputazio "biguna" eta errefortzu bidezko ikaskuntza. Nils Nilssonek ikuspegi hauek "azpi-sinbolikoak" deitu zituen.
Sare neuronalen berpiztea: "konexionismoa"
[aldatu | aldatu iturburu kodea]
1982an, John Hopfield fisikariak frogatu ahal izan zuen neurona-sare modu batek (gaur egun "Hopfield-en sarea" deitua) informazioa ikasi eta prozesatu zezakeela, eta, edozein baldintza finkoren pean, behar adina denbora igaro ondoren, konbergitu egiten duela, modu frogagarrian. Aurrerapen bat izan zen, lehen uste baitzen sare ez-linealek, oro har, bilakaera kaotikoa izango zutela. Aldi berean, Geoffrey Hintonek eta David Rumelhartek "backpropagation" izeneko neurona-sareak entrenatzeko metodo bat jendarteratu zuten. Bi garapen horiek neurona-sare artifizialen esplorazioaren ideia berpizten lagundu zuten.
1986an, Rumelhart eta James McClelland psikologoek editatutako Prozesu Banatu Paraleloa izeneko bi liburukik argia ikusi zutenean, arreta handia piztu zuten neurona-sareek eta antzeko beste hainbat eredu berrik. Eremu horri "konexionismo" izena jarri zitzaion, eta AA sinbolikoaren aldekoen eta konexionisten arteko eztabaida bizia piztu zen. Hintonen ustez, sinboloak "AAren eter argitsua" ziren, hau da, adimenaren eredu faltsu eta engainagarri bat. Hori guztia, azken batean, iraultza kognitiboa eragin zuten oinarri teorikoen aurkako erasotzat hartu zen.
Neurona-sareak teknikaren egoera aurreratzen hasi ziren zenbait arlo espezializatutan, hala nola proteinen egituraren iragarpenean. Terry Sejnowskiren lan aitzindariari jarraituz, PhD eta Psi Pred bezalako geruza anitzeko "cascading" pertzeptrona zehaztasun maximo ia teorikoa lortu zuten bigarren mailako egitura aurreikustean.[51][52][53]
1990ean, Bell laborategietako Yann LeCun-ek neurona-sare konboluzionalak erabili zituen eskuz idatzitako digituak ezagutzeko. Sistema oso erabilia izan zen 90eko hamarkadan, zip kodeak eta egiaztapen pertsonalak irakurriz. Hau izan zen neurona-sareen lehen aplikazio erabilgarria.
Robotika eta arrazoimen gorpuztua
[aldatu | aldatu iturburu kodea]Rodney Brooks, Hans Moravec eta beste batzuek, benetako adimena erakusteko, makina batek gorputz bat izan behar duela zioten: mundua hauteman, mugitu, biziraun eta hari aurre egin behar dio. Trebetasun motor-sentsorialak funtsezkoak dira maila altuagoko trebetasunetarako, hala nola zentzuzko arrazoiketa. Ezin dira modu eraginkorrean inplementatu arrazonamendu sinboliko abstraktua erabiliz, beraz, AAk pertzepzio, mugikortasun, manipulazio eta biziraupen arazoak konpondu beharko lituzke irudikapen sinbolikoa batere erabili gabe. Robotikako ikertzaile horiek adimena "behetik gora" eraikitzearen alde egin zuten.
Ideia horren aitzindaria David Marr izan zen, 1970eko hamarkadaren amaieran MITera iritsi zena, neurozientzia teorikoan arrakasta izan zuen, ikusmena aztertzen zuen taldea zuzentzeko. Ikuspegi sinboliko guztiak baztertu zituen (bai McCarthyren logika, bai Minskyren markoak), AAk ikusmenaren makineria fisikoa behetik gora ulertu behar zuela argudiatuz, edozein prozesamendu sinboliko gertatu aurretik. (Marr-en lana leuzemiak eten zuen 1980an)
1990ean argitaratu zuen "Elephants Don't Play Chess" ("Elefanteek ez dute xakean jokatzen") lanean, Brooks robotikako ikertzaileak sinbolo fisikoen sistemaren hipotesiari zuzenean heldu zion, argudiatuz sinboloak ez direla beti beharrezkoak. Beti dago eguneratuta. Beti ditu ezagutu beharreko xehetasun guztiak. Trikimailua egoki eta askotan nahikoa sentitzea da."
1980ko eta 1990eko hamarkadetan, zientzialari kognitibo askok ere baztertu egin zuten adimenaren sinboloak prozesatzeko eredua, eta argudiatu zuten gorputza funtsezkoa zela arrazoitzeko, "gorpuztutako adimenaren tesia" izeneko teoria.[54]
Konputazio biguna eta arrazoibide probabilistikoa
[aldatu | aldatu iturburu kodea]Soft computingak informazio osatugabe eta zehaztugabearekin lan egiten duten metodoak erabiltzen ditu. Ez dira saiatzen erantzun zehatzak, logikoak ematen, "ziurrenik" zuzenak baino ez diren emaitzak ematen baizik. Horri esker, metodo sinboliko zehatzek maneiatu ezin zituzten arazoak konpondu ahal izan zituzten. Prentsako kontuek askotan esaten zuten tresna horiek "gizaki batek bezala pentsa zezaketela".
Judea Pearlen Sistema Adimendunetako Arrazonamendu Probabilistikoa: Inferentzia Onargarriko Sareak, 1988ko liburu eragingarria probabilitatearen eta erabakiaren teoria AAra ekarri zuen. Logika lausoa, Lofti Zadeh-ek 60ko hamarkadan garatua, AAn eta robotikan gehiago erabiltzen hasi zen. Konputazio ebolutiboak eta neurona-sare artifizialek ere informazio zehaztugabea maneiatzen dute, eta "bigun" gisa sailkatzen dira. 90eko hamarkadan eta 2000ko hamarkadaren hasieran, konputazio biguneko beste tresna asko garatu eta erabili ziren, Bayesiar sareak barne, Markoven ezkutuko ereduak, informazioaren teoria eta modelatze estokastikoa. Tresna horiek, aldi berean, optimizazio klasikoa bezalako teknika matematiko aurreratuen mende zeuden. 1990eko hamarkadan eta 2000ko hamarkadaren hasieran denbora batez, tresna bigun horiek "adimen konputazionala" izeneko AAren azpieremu batek aztertu zituen.
Ikaskuntza errefortzua
[aldatu | aldatu iturburu kodea]Errefortzuko ikaskuntzak sari bat ematen dio agente bati nahi duen ekintza bat ondo egiten duen bakoitzean, eta sari negatiboak (edo "zigorrak") eman ditzake gaizki egiten duenean.Mendearen lehen erdian deskribatu zuten psikologoek animalia-ereduak erabiliz, hala nola Thorndike, Pavlov eta Skinner. 1950eko hamarkadan, Alan Turingek eta Arthur Samuelek errefortzu bidezko ikaskuntzaren papera aurreikusi zuten AAn.
Ikerketa-programa arrakastatsu eta eraginkorra Richard Sutton eta Andrew Barto izan ziren 1972aren hasieran. Haien elkarlanak goitik behera aldatu zuen lau hamarkadetan errefortzuko ikaskuntzaren azterketa eta erabakiak hartzea. 1988an, Suttonek ikasketa automatikoa deskribatu zuen erabakien teoriari dagokionez (hau da, Markoven erabakitze-prozesua). Horrek oinarri teoriko sendoa eman zion subjektuari, eta eragiketen ikerketaren arloan garatutako emaitza teorikoen multzo handi baterako sarbidea.
1988an ere, Sutton-ek eta Barto-k "denbora-diferentzia" (TD) ikasketa-algoritmoa garatu zuten, non agentea etorkizunari buruzko bere iragarpenek hobekuntza erakusten dutenean soilik saritzen den. Aurreko algoritmoak nabarmen gainditu zituen. TD-learning Gerald Tesaurok erabili zuen 1992an TD-Gammon programan, non backgammonean giza jokalari onenek bezala jokatzen zuen. Programak bere buruaren aurka jokatuz ikasi zuen jokoa, aldez aurretik ezer jakin gabe. Diziplinarteko konbergentzia kasu interesgarri batean, neurologoek 1997an aurkitu zuten garunetako dopaminaren sari-sistemak TD-learning algoritmoaren bertsio bat ere erabiltzen duela. TD ikaskuntza eragin handikoa izango litzateke XXI. mendean, bai AlphaGo-n eta bai AlphaZeron erabilia.
Bigarren AA-ren "negua"
[aldatu | aldatu iturburu kodea]Enpresarien atentzioak gora egin zuen AA-rekin, baina1980ko hamarkadan behera egin zuen, burbuila ekonomiko baten eredu klasikoan. Dozenaka enpresak porrot egin zutenez, enpresen pertzepzioa teknologia bideragarria ez zela zen. AA-ren ospearen kalteak XXI. menderarte iraungo zuen. Eremu barruan ez zegoen adostasun handirik AAk 60ko hamarkadan munduaren irudimena harrapatu zuen giza mailako adimenaren ametsa ez betetzearen arrazoiei buruz. Elkarrekin, faktore horiek guztiek AA arazo edo ikuspegi partikularretan zentratutako azpieremu lehiakideetan zatitzen lagundu zuten.
Hurrengo 20 urteetan, AAk lan-irtenbideak etengabe eman zituen arazo isolatu zehatzetarako. 1990eko hamarkadaren amaieran, industria teknologiko osoan erabiltzen hasi zen, nahiz eta izkutuan egon. Arrakasta ordenagailu potentzia handitzearen ondorioz, beste alor batzuekin lankidetzan aritzeagatik (optimizazio matematikoa eta estatistika, adibidez) eta kontabilitate zientifikoaren estandar altuenak erabiltzeagatik izan zen. 2000. urterako, AAk bere helburu zaharrenetako batzuk lortu zituen. Eremua inoiz baino zuhurrago eta arrakastatsuago aritu zen.
AA negua
[aldatu | aldatu iturburu kodea]"AA-ren negua" terminoa 1974ko finantzaketa-murrizketen ondoren ateratako ikertzaileek sortu zuten, sistema adituekiko gogoak kontroletik kanpo kiribildu zirelako eta, etsipen horrek jarraituko zuelako. Haien beldurrak ondo oinarrituta zeuden: 1980ko hamarkadaren amaieran eta 1990ekoaren hasieran, AAk finantza-atzerapauso batzuk jasan zituen.
Hobenkuntza baten lehen aztarna 1987an AAko hardware espezializatuaren merkatuaren bat-bateko kolapsoa izan zen. Apple eta IBMren mahai gaineko ordenagailuek abiadura eta potentzia irabazten joan ziren eta 1987an Symbolics eta beste batzuek egindako Lisp makina garestienek baino indar handiagoa hartu zuten. Jadanik ez zegoen arrazoi on bat haiek erosteko. Egun batetik bestera mila milioi dolarreko industria oso bat eraitsi zuten.
Azkenean, lehen sistema aditu arrakastatsuek, XCON adibidez, mantentzeko garestiegiak zirela frogatu zuten. Eguneratzeko zailak ziren, ezin zuten ikasi, eta "hauskorrak" ziren (hau da, ezohiko sarrerak ematen zitzaizkienean akats onartezinak egin zitzaketen). Sistema adituak baliagarriak zirela erakutsi zen, baina testuinguru berezi gutxi batzuetan bakarrik.
1980ko hamarkadaren amaieran, Ekimen Informatiko Estrategikoak "sakon eta modu basatian" murriztu zion AA-ri finantzaketa. DARPAko lidergo berriak barneratuta zeukan AA ez zela "hurrengo olatua", eta funtsak berehalako emaitzak emateko aukera gehiago ziruditen proiektuetara bideratu zituen.
1991rako, 1981ean Japoniako Bosgarren Belaunaldiko Proiekturako gordetako helburuen zerrenda ez zen bete. Horietako batzuk, esaterako "elkarrizketa informal bat aurrera eramateko gai izatea", ez lirateke lortuko beste 30 urtez. AAko beste proiektu batzuetan bezala, itxaropenak oso handiak izan ziren, benetan posible zitekeenak baino askoz handiagoak.
Adimen artifizialeko 300 enpresa baino gehiago itxi ziren, porrot egin zuten edo 1993. urtearen amaieran erosi egin ziren, AA-ren lehen bolada komertziala amaituz. 1994an, HP Newquistek The Brain Makers aldizkarian adierazi zuen, "Adimen artifizialaren etorkizun gertua —bere forma komertzialean—, neurri batean, sare neuronalen etengabeko arrakastan oinarritzen dela dirudi. "
AA-ren itzalean
[aldatu | aldatu iturburu kodea]90. hamarkadan, hasiera batean AAko ikertzaileek garatutako algoritmoak sistema handiagoen zati gisa agertzen hasi ziren. AAk arazo konplexu asko konpondu zituen, eta haien konponbideak baliagarriak izan ziren industria teknologiko osoan, hala nola datuen meatzaritzan, robotika industrialean, logistikan, ahotsaren ezagutzan, banku-softwarean, diagnostiko medikoan eta Googleren bilatzailean.
AAren esparruak arrakasta horiengatik kreditu gutxi edo batere ez zuen jaso 1990eko hamarkadan eta 2000ko hamarkadaren hasieran. AA-ren berrikuntza handienetako asko informatikako beste elementu baten egoeretara murriztu dira. Nick Bostrom-ek azaltzen du: "Punta-puntako AA asko aplikazio orokorretara iragazi da, askotan AA deitu gabe, behin zerbait nahikoa erabilgarria eta nahikoa arrunta bihurtzen denean ez delako gehiago AA bezala etiketatzen. "
AAko ikertzaile askok 1990eko hamarkadan nahita deitu zioten beren lanari beste izen batzuekin, hala nola informatika, ezagutzan oinarritutako sistemak, "sistema kognitiboak" edo adimen konputazionala. Alde batez, hori izan zitekeen haien eremua, azken finean AA-ren desberdina zela uste zutelako, baina, era berean, izen berriek finantzaketa lortzen lagundu zuten. Mundu komertzialean, gutxienez, AAko neguan huts egindako promesek AA-rentzako ikerketa abiarazten jarraitu zuten 2000ko hamarkadan. New York Times-ek 2005ean jakinarazi zuenez: "Informatikariek eta software ingeniariek adimen artifizial terminoa saihestu zuten begi basatien ameslari gisa ikustearen beldurrez. "
Zehaztasun matematikoa, lankidetza handiagoa eta ikuspegi finkoagoa
[aldatu | aldatu iturburu kodea]AAko ikertzaileak iraganean konparatuta tresna matematiko sofistikatuagoak garatzen eta erabiltzen hasi ziren. AAko norabide berri gehienak eredu matematikoetan oinarritu ziren neurri handi batean, sare neuronal artifizialak, arrazoiketa probabilistikoa, konputazio biguna eta errefortzuzko ikaskuntza barne. 90eko eta 2000ko hamarkadetan, beste tresna matematiko asko egokitu ziren AArako. Tresna horiek ikasketa automatikoan, pertzepzioan eta mugikortasunean aplikatu ziren.
Oso zabaldua zegoen AAk ebatzi behar zituen arazo asko estatistika, matematika, ingeniaritza elektrikoa, ekonomia edo eragiketen ikerketa bezalako alorretako ikertzaileak jada lantzen ari zirela. Hizkuntza matematiko partekatuari esker, eremu finkatuagoekin eta arrakastatsuagoekin lankidetza-maila handiagoa lortu zen, bai eta egiaztagarriak ziren emaitzak lortu ere; AA diziplina "zientifiko" zorrotzagoa bihurtu zen.
90. hamarkadan arrakasta izateko beste funtsezko arrazoi bat AAko ikertzaileak irtenbide egiaztagarriekin arazo espezifikoetan zentratu zirela izan zen. Horrek tresna baliagarriak ematen zituen orainaldian, etorkizunari buruzko espekulazioa baino gehiago.
Agente adimendunak
[aldatu | aldatu iturburu kodea]"Agente adimentsu" izeneko paradigma berri bat oso onartua izan zen 1990eko hamarkadan zehar. Nahiz eta lehenago ikertzaileek AA-ren "zatitu eta konkistatu" ikuspegi modularrak proposatu zituzten, agente adimentsua ez zen bere forma modernora iritsi Judea Pearl, Allen Newell, Leslie P. Kaelbling eta beste batzuen erabakien teoriatik eta ekonomiatik azterketara kontzeptuak ekarri zituzten arte. Ekonomialarien agente arrazional baten definizioa informatikak objektu edo modulu baten definizioarekin batzen zenenan, agente adimendunaren paradigma osoa zen.
Agente adimentsu bat sistema bat da, bere ingurunea hautematen duena eta bere arrakastarako aukerak maximizatzen dituzten ekintzak egiten dituena. Definizio horretaz baliatuta, arazo zehatzak konpontzen dituzten programa sinpleak "agente adimendunak" dira, gizakiak eta gizakien erakundeak bezala. Agente adimendunaren paradigmak honela definitzen du AAren ikerketa: "eragile adimendunen azterketa". AAren aurreko definizioak orokortuz: giza adimena aztertzetik harago doa; adimen mota guztiak aztertzen ditu.
Paradigmek ikertzaileei lizentzia eman zien arazo isolatuak aztertzeko eta metodoei buruz ados ez egoteko, baina, hala ere, beraien lana adimen orokorrerako gai izango zen agente-arkitektura batean konbinatu ahal izateko itxaropena gordetzen du.
Mugarriak eta Mooreren legea
[aldatu | aldatu iturburu kodea]1997ko maiatzaren 11n, Deep Blue Garry Kasparov, munduko xake txapeldun nagusi bat, gainditu zuen lehen xake sistema informatiko bihurtu zen. 2005ean, Stanfordeko robot batek DARPA Grand Challenge irabazi zuen, basamortuko arrasto ezezagun batean zehar 131 miliatan zehar modu autonomoan gidatuz. Bi urte geroago, CMUko talde batek DARPA Urban Challenge irabazi zuen, 55 milia modu autonomoan nabigatuz hiri-ingurune batean, zirkulazio-arriskuei erantzuten eta zirkulazio-legeei atxikitzen zitzaien bitartean.
Arrakasta horiek ez ziren paradigma berri iraultzaileren baten ondorio izan, baizik eta, ingeniaritzako trebetasunaren eta 90eko hamarkadarako ordenagailuen abiadura eta gaitasuna izugarri handitzearen ondorio. Izan ere, Deep Blue ordenagailua, Christopher Stracheyk 1951n xakean jokatzen irakatsita, Ferranti Mark 1 baino 10 milioi aldiz azkarragoa zen. Igoera dramatiko hau Mooreren legeak neurtzen du, ordenagailuen abiadura eta memoria gaitasuna bi urtetik behin bikoizten dela iragartzen baitu. Poliki-poliki "potentzia informatiko gordinaren" funtsezko arazoa gainditzen joan zen.
Big data, deep learning, AGI (2005–2017)
[aldatu | aldatu iturburu kodea]Mende honetako lehen hamarkadetan, datu kopuru handiak ("big data" izenekoak) eskuratzea, ordenagailu merkeagoak eta azkarragoak eta ikasketa automatikoko teknika aurreratuak aplikatu ziren ekonomia arazo askotan. Ikasketa sakonaren arrakastan flexio-puntu bat izan zen 2012 urtearen inguruan, ikasketa automatikoaren inguruan errendimendua zeregin askotan hobetu zuena, besteak beste, irudien eta bideoen prozesamenduan, testuen analisian eta hizketaren ezagutzan. AAn egindako inbertsioa handitu egin zen bere gaitasunekin batera, eta 2016rako, AA-rekin lotutako produktuen, hardwarearen eta softwarearen merkatua 8.000 milioi dolar baino gehiagora iritsi zen, eta New York Times-ek jakinarazi zuen AArekiko interesa aztoramen puntu batera iritsi zela.
2002an, Ben Goertzel eta beste batzuk kezkatuta agertu ziren AAk bere helburua helburua alde batera utzi zuelako, makina moldakorrak eta guztiz adimendunak ekoiztea, eta adimen orokor artifizialaren ikerketa zehatzagoaren alde azaldu ziren. 2010eko hamarkadaren erdialdean, Adimen Orokor Artifiziala (AGI) lortzeko hainbat enpresa eta erakunde sortu ziren, OpenAI eta Google's DeepMind, esaterako. Garai berdintsuan, superadimenari buruzko ikuspegi berriek AA mehatxu existentzialaean egotearen kezka sortu zuten. Adimen artifizialaren teknologiaren arriskuak eta nahi gabeko ondorioak ikerketa akademiko serioaren eremu bihurtu ziren 2016tik aurrera.
Big data eta makina handiak
[aldatu | aldatu iturburu kodea]2000ko hamarkadan ikasketa automatikoaren arrakasta entrenamenduko datu kopuru zabalen eta ordenagailu azkarragoen erabilgarritasunaren araberakoa izan zen. Russellek eta Norvigek idatzi zutenez, "datu multzoaren tamaina bizpahiru magnitude-ordenatan handitzean lortzen den errendimenduaren hobekuntzak algoritmoa ahulduz egin daitekeen edozein hobekuntza gainditzen du." Geoffrey Hintonek 90. hamarkadan arazoa datu multzo etiketatuak milaka aldiz txikiagoak eta ordenagailuak milioika aldiz motelagoak zirela gogoratu zuen. Baina 2010erako hori jada ez zen egia.[55]
2000ko hamarkadan daturik erabilgarrienak ikasketa automatikorako eta AA-rako propio sortutako datu-multzo ondu eta etiketatuetatik zetozen. 2007an, UMass Amherst-eko talde batek Tagged Faces in the Wild argitaratu zuen, aurpegien irudien multzo anotatu bat, hurrengo hamarkadetan aurpegia ezagutzeko sistemak entrenatzeko eta probatzeko oso erabilia izan zena. Fei-Fei Lik ImageNet garatu zuen, Amazoniako Turk Mekanikoa erabiliz boluntarioek ateratako hiru milioi irudiz osatutako datu-basea. 2009an argitaratu zen, eta prestakuntza-datuen erakunde erabilgarria eta probak egiteko erreferentea izan zen irudiak prozesatzeko sistemen hurrengo belaunaldirako. Google-k 2013an word2vec argitaratu zuen open source baliabide gisa. Internetetik arraspatutako datu-testu kantitate handiak eta hitz-inkrustazioak erabiltzen zituen hitz bakoitza irudikatu ahal izateko zenbakizko bektore bat sortzeko. Erabiltzaileak harrituta geratu ziren hitzen esanahiak zein ondo atzemateko gai zen ikusita, adibidez, bektore gehikuntza arruntak Txina + Erreka = Yangtze, Londres-Ingalaterra+Frantzia= Paris bezalako baliokidetzak emango lituzke. Datu-base hori, bereziki, ezinbestekoa izan zen 2010eko hamarkadaren amaieran hizkuntza-eredu handiak garatzeko.
Internetaren hazkunde azkarrak milaka milioi testu eta irudi orrialdetarako sarbidea eman zien ikasketa automatikoan oinarritutako programei, eta horiek aztertzeko aukera izan zuten. Eta, arazo espezifikoetarako, izaera pribatuko datu-base handiek datu garrantzitsuak zituzten. McKinsey Global Institutek jakinarazi zuenez, "2009rako, AEBetako ekonomiako ia sektore guztiek gutxienez 200 terabyte datu gordeta izango dituzte gutxi gorabehera". Informazio bilketa hori big data izenez ezagutu zen 2000ko hamarkadan.
2011ko otsaileko Jeopardy erakusketa-partida batea, IBMren galderak erantzuteko Watsonsistemak bi Jeopardy txapeldun onenak garaitu zituen, Brad Rutter eta Ken Jennings, alde nabarmenarekin. Watsonen aurrerapena ezinezkoa izango zen Interneteko informaziorik gabe.
Deep learning
[aldatu | aldatu iturburu kodea]2012an, AlexNet-ek, Alex Krizhevsky-k garatutako ikaskuntza sakoneko eredu batek, ImageNet Large Scale Visual Recognition Challenge irabazi zuen, bigarren postuko irabazleak baino akats nabarmen gutxiagorekin. Krizhevskik Geoffrey Hintonekin lan egin zuen Torontoko Unibertsitatean. Hau inflexio puntu bat izan zen ikasketa automatikoan: hurrengo urteetan irudiak interpretatzeko beste hainbat ikuspegi alde batera utzi ziren ikasketa sakonaren alde.
Deep learning-ak geruza anitzeko pertzeptroia erabiltzen du. Arkitektura hau 60ko hamarkadatik ezagutzen zen arren, funtzionatzea lortzeko hardware indartsua eta entrenamendu datu kopuru handiak behar dira. Hauek bihurtzeko, irudiak prozesatzeko sistemen errendimendua hobetzeko eskuz landutako ad hoc ezaugarriak behar ziren, inplementatzeko zailak zirenak. Deep learning-a sinpleagoa eta orokorragoa zen.
Deep learning-a dozenaka arazotan aplikatu zen hurrengo urteetan (hala nola hizketaren ezagutzan, itzulpen automatikoan, diagnostiko medikoan eta jokoetan). Kasu guztietan sekulako irabaziak izan zituen errendimenduan. Inbertsioek eta AArekiko interesak gorantz egin zuten horren ondorioz.
Lerrokatze problema
[aldatu | aldatu iturburu kodea]2000ko hamarkadan modan jarri zen berriro AA-ren etorkizunaz hitz egiten hastea eta hainbat liburu ezagunek makina superadimendunen aukera eta giza gizartearentzat suposa zezaketenari buruz hitz egiten zuten. Horren zati bat baikorra izan zen (Ray Kurzweilen The Singularity is Near, adibidez), baina beste batzuek ohartarazi zuten AA boteretsu bat mehatxu existentziala zela gizateriarentzat, Nick Bostrom eta Eliezer Yudkowskyk adibidez. Prentsan gaia asko landu zen eta punta-puntakoko intelektual eta politikari askok gaia argudiatu zuten.
21. mendeko AA programak beren helburuen arabera definitzen dira. Nick Bostrom-en Superintelligence liburuan (2005) esaten da, helburu horiek definitzeaz arduratzen ez bagara, makinak kalteak eragin diezazkiokeela gizateriari helburu bat lortzeko prozesuan. Stuart J. Russellek bere jabea hiltzen duen robot adimentsu baten adibidea erabili zuen, jabeak desentxufatu ez zedin. (Arazo hau "konbergentzia instrumental" termino teknikoaz ezagutzen da). Irtenbidea makinaren helburu-funtzioa bere jabearen eta gizateriaren helburuekin bideratzea da. Horrela, AA-ren arriskuak eta nahi gabeko ondorioak arintzeko problema"balio-lerrokatzearen problema" edo AA-ren lerrokatzea bezala ezagutu zen.
Aldi berean, ikasketa automatikoko sistemak ondorio kezkagarriak izaten hasiak ziren. Cathy O'Neil-ek azaldu zuen nola algoritmo estatistikoak 2008ko porrota ekonomikoaren arrazoien artean egon ziren, ProPublica-ko Julia Angwin-ek argudiatu zuen justizia penalak erabilitako COMPAS sistemak neurri batzuen arabera arraza-alborapena erakusten zuela, beste batzuek erakutsi zuten ikasketa automatikoko sistema askok arraza-alborapenen bat erakusten zutela, eta ikasketa automatikoko sistemen ondorioz sortutako emaitza arriskutsuen beste adibide asko zeuden.
2016an, Donald Trumpen hautaketak eta COMPAS sistemaren inguruko polemikak egungo azpiegitura teknologikoarekin hainbat arazo erakutsi zituzten, besteak beste, desinformazioa, konpromisoa maximizatzeko diseinatutako sare sozialetako algoritmoak, datu pertsonalen erabilera okerra eta eredu prediktiboen fidagarritasuna. Zuzentasunari eta nahi gabeko ondorioei buruzko gaiak nabarmendu ziren AA-ren biltzarretan, argitalpenak izugarri handitu ziren, finantzaketa eskuragarri jarri zen eta ikertzaile askok beren ibilbidea gai horietara bideratu zuten berriro. Balio-lerrokatzearen problema ikasketa akademikoaren eremu serio bihurtu zen.
Adimen artifizialaren ikerketa orokorra
[aldatu | aldatu iturburu kodea]2000ko hamarkadaren hasieran, hainbat ikertzaile arduratu ziren AA gehiegi zentratuta zegoela "aplikazio espezifikoetan neurgarria den errendimenduan" ("AA estua" bezala ezagutzen dena) eta AA-ren jatorrizko helburua, hau da, makina moldakorrak eta guztiz adimendunak sortzea, alde batera utzi zutela. Lehenetariko kritikari bat Nils Nilsson izan zen 1995ean, eta antzeko iritziak argitaratu zituzten John McCarthy, Marvin Minsky eta Patrick Winston AAko eledunek 2007-2009an. Minskyk "giza mailako AA"ri buruzko sinposio bat antolatu zuen 2004an. Ben Goertzelek "adimen orokor artifiziala" terminoa hartu zuen azpieremu berrirako, aldizkari bat sortu eta hitzaldiak egin zituen 2008tik aurrera. Eremu berri hau azkar hazi zen, neurona-sare artifizialen etengabeko arrakastak eta AGIren gakoa izan zen itxaropenak bultzatuta.
AGI garatzeko hainbat enpresa, laborategi eta fundazio lehiakide sortu ziren 2010eko hamarkadan. Hiru zientzialari ingelesek, Demis Hassabis, Shane Legg eta Mustafa Suleymanek, Peter Thielen eta geroago Elon Musken finantziazioarekin DeepMind sortu zuten 2010ean. Sortzaileak eta finantzariak oso kezkatuta zeuden AAren segurtasunarekin eta AAren arrisku existentzialarekin. DeepMinden sortzaileek lotura pertsonala zuten Yudkowskyrekin eta Musk oso aktibo zegoen esparruan. Hassabis, aldi berean, kezkatuta zegoen AGIren arriskuekin, baina baikor bere boterearekin; espero zuen "AA konpondu ahal izango zutela, gero beste guztia konpontzeko." The New York Times-ek 2023an idatzi zuen "Lehiaketa honen muinean burmuina luzatzen duen paradoxa bat dago. AA-rekin kezkatuen daudela dioten pertsonak hura sortzeko eta haren aberastasunez gozatzeko erabakien artean daude. Beren anbizioa justifikatu dute, AAk Lurra arriskuan jar ez dezan beraiek bakarrik izan dezaketen uste sendoarekin. "
2012an, Geoffrey Hinton (80ko hamarkadatik neurona-sareen ikerketa zuzentzen ari zena) Baiduren eskutik hurbildu zen, honek bera eta bere ikasle guztiak dirutza izugarri baten truke kontratatu nahi baitzituen. Hintonek enkante bat egitea erabaki zuen, eta Lake Tahoe AA-ren biltzar batean, Googleri saldu zioten beren burua, 44 milioi dolarren truke. Hassabis jakinaren gainean jarri zen, eta DeepMind Googleri saldu zion 2014an, kontratu militarrik ez onartzeko eta etika batzorde batek gainbegiratzeko baldintzarekin.
Googleko Larry Page, Musk eta Hassabis ez bezala, AAren etorkizunari buruz baikor agertu zen. Musk eta Paige Musken 2015eko urtebetetze-festan AGIren arriskuari buruzko eztabaida batean murgildu ziren. Hamarkadak zeramatzaten lagun izaten baina handik gutxira utzi zioten elkarri hitz egiteari. DeepMindeko etika batzordearen bilera bakarrera joan zen Musk, non argi geratu zen Googlek ez zuela interesik AGIren kaltea arintzeko. Bere eragin faltak zapuztuta OpenAI sortu zuen 2015ean, Sam Altman zuzendari jarriz, eta goi mailako zientzialariak kontratatuz. OpenAI irabazi asmorik gabeko gisa hasi zen, "Google eta beste korporazio batzuk bultzatzen ari ziren pizgarri ekonomikoetatik libre. " Musk berriro zapuztu zen eta 2018an enpresa utzi zuen. OpenAIk Microsoftengana jo zuen finantza-laguntza jarraituaren bila eta Altmanek eta OpenAIk enpresaren irabazketa asmo a zuen bertsioa osatu zuten, 1.000 milioi dolar baino gehiagoko finantzaketarekin.
2021ean, Dario Amodeik eta beste 14 zientzialarik OpenAI utzi zuten, enpresak irabaziak segurtasunaren gainetik jartzen omen baitzituen. Anthropic osatu zuten, eta laster 6.000 milioi dolarreko finantzaketa izan zuen Microsoftek eta Googlek.
Lengoaia modelo handiak, AA-ren boom-a (2017–gaur egun)
[aldatu | aldatu iturburu kodea]

AAren booma, transformadoreen arkitektura bezalako arkitektura eta algoritmo gakoen hasierako garapenarekin hasi zen 2017an, ezagutza, arreta eta sormenaren giza itxurako ezaugarriak erakusten dituzten hizkuntza-eredu handien eskalatze eta garapenera eramanez. AA-ren aro berria 2020tik hasi zen, ChatGPT bezalako hizkuntza eredu handi eskalatuak (LLMs) publikoki plazaratuz.
Transformadoreen arkitektura eta hizkuntza-eredu handiak
[aldatu | aldatu iturburu kodea]2017an Googleko ikertzaileek transformadorearen arkitektura proposatu zuten. Arreta-mekanismo bat ustiatzen du, eta hizkuntza-eredu handietan oso erabilia bihurtu zen.
Hizkuntza-eredu handiak, transformadorean oinarritutakoak, AGI enpresek garatu zituzten: OpenAIk GPT-3 kaleratu zuen 2020an, eta DeepMindek Gato 2022an. Etiketatu gabeko datu kopuru zabaletan trebatzen dira, eta beheranzko zeregin ugaritara egokitu daitezke.
Eredu horiek gai kopuru izugarria eztabaida dezakete, eta ezagutza orokorra erakutsi. Galdera berez sortzen da: adimen orokor artifizialaren adibide dira eredu horiek? Bill Gates eszeptiko erakutsi zen teknologia berrien aurrean eta AGI inguratzen zuen hype harekin. Hala ere, Altmanek ChatGPT4ren zuzeneko demo bat aurkeztu zion biologia aurreratuko proba bat gaindituz. Bill Gates konbentzituta zegoen. 2023an, Microsoft Research-ek askotariko atazekin probatu zuen eredua, eta ondorioztatu zuen "zentzuz ikus zitekeela adimen orokor artifizialeko (AGI) sistema baten bertsio goiztiar (baina oraindik osatugabea) gisa".
2024an, OpenAI o3, OpenAIk garatutako arrazoiketa aurreratuko eredu mota bat iragarri zen. François Cholletek 2019an garatutako Adimen Orokor Artifizialerako Abstrakzio eta Arrazoiketa Corpusaren (ARC-AGI) erreferenteari buruz, % 84ko giza puntuazio tipikoa gaindituz. Suposatzen da erreferentea beharrezko proba dela, baina ez nahikoa AGIrentzako.
AA-ren boom-a
[aldatu | aldatu iturburu kodea]AAn egindako inbertsioa esponentzialki hazi zen 2020tik aurrera, AAko enpresa sortzaileentzako kapitalaren finantzaketa izugarri handitu baitzen. AAren inbertsio totalak 18.000 milioi dolarretatik (2014) 119.000 milioi dolarretara (2021) igo ziren, eta AA generatiboak 2023rako inbertsioen % 30 inguru ziren.[57] 2017tik 2021era bitarteko metriken arabera, Estatu Batuak munduko beste edozein herrialde gainditu zituen kapitalaren finantzaketari, startupen kopuruari eta emandako AApatenteei dagokienez.[58] AA-ren eszena komertzialean Big Tech enpresa estatubatuarrak nagusitu ziren, eta arlo horretan egindako inbertsioek AEBetan oinarritutako arrisku-kapitalistak gainditu zituzten.[59] OpenAIren balorazioa 86.000 milioi dolarrera iritsi zen 2024 hasieran, eta NVIDIA merkatuaren kapitalizazioak 3,3 bilioi dolar gainditu zituen 2024 erdialdean, eta, beraz, munduko enpresarik handiena bihurtu zen merkatuaren kapitalizazioagatik, AAk eskatzen zuen GPUen eskaerak gora egin ahala.[60][61] 15.ai, 2020ko martxoan MITeko ikertzaile anonimo batek kaleratu zuen, AA generatiboaren lehen adibideetako bat izan zen, AA-ren boomaren hasierako faseetan arreta publiko orokorra irabaziz.[62][63][64][65] Web aplikazio libreak karaktereen ahotsak klonatzeko gaitasuna erakutsi zuen entrenamendu datu minimo batzuk dituzten sare neuronalak erabiliz, ahots bat erreproduzitzeko 15 segundo baino gutxiagoko audioa erabilita soilik — geroago OpenAIk berretsi zuen gaitasun hori 2024an—.[66] Zerbitzua biral bihurtu zen sare sozialetako plataformetan 2021. urtearen hasieran, erabiltzaileei aukera emanez pertsonai famatuentzako diskurtsoa sortzeko, eta bereziki nabarmendu zen AA-ren ahots-sintesiak jendarteratzen duen rolagatik, eduki sortzaileetarako eta memeetarako.[67][68][69]
Contemporary AI systems are now becoming human-competitive at general tasks, and we must ask ourselves: Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable. This confidence must be well justified and increase with the magnitude of a system’s potential effects. OpenAI’s recent statement regarding artificial general intelligence, states that "At some point, it may be important to get independent review before starting to train future systems, and for the most advanced efforts to agree to limit the rate of growth of compute used for creating new models." We agree. That point is now.
Therefore, we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4. This pause should be public and verifiable, and include all key actors. If such a pause cannot be enacted quickly, governments should step in and institute a moratorium.
Erabilera publikoko AAren etorrera
[aldatu | aldatu iturburu kodea]ChatGPT 2022ko azaroaren 30ean jarri zen abian, eta inflexio puntua izan zen adimen artifizialaren adopzio publikoan. Askatu eta egunetaraan biralizatu egin zen, bi hilabetetan 100 milioi erabiltzaile baino gehiago lortuz eta historian azkarren hazten ari den kontsumitzaileei bideratutako software aplikazioa bihurtuz.[70] Chatbot-ak giza itxurako elkarrizketetan parte hartzeko, kodea idazteko eta eduki sortzaileak sortzeko zuen gaitasunak irudimen publikoa harrapatu zuen eta onarpen azkarra ekarri zuen hainbat sektoretan, hala nola hezkuntzan, negozioan eta ikerketan.[71] ChatGPTren arrakastak enpresa teknologiko nagusien erantzunak eragin zituen: Googlek "kode gorria" izendatu zuen eta berehala merkaturatu zuen Gemini (lehenago Google Bard bezala ezagutzen zena), Microsoftek teknologia Bing Chat-en sartu zuen bitartean.[72]
AA teknologia horiek bat-bateko famak eztabaida bizia piztu zuen haien inplikazioei buruz. AAko ikertzaile nabarmenek eta industriako liderrek baikortasuna eta kezka adierazi zuten garapenaren erritmo bizkortzailearen inguruan. 2023ko martxoan, 20.000 sinatzailek baino gehiagok, Yoshua Bengio, Elon Musk eta Steve Wozniak informatikariak barne, gutun ireki bat sinatu zuten AAren garapen aurreratuan etenaldi bat eskatzeko, "gizartearentzako eta gizateriarentzako arrisku sakonak" aipatuz. Hala ere, Juergen Schmidhuber bezalako beste ikertzaile ospetsu batzuek ikuspegi baikorragoa hartu zuten, eta azpimarratu zuten AA-ren ikerketa gehienek "giza bizitza luzeagoa eta osasuntsuagoa eta errazagoa" izatea dutela helburu.[73][74]
2024ko erdialdera, ordea, finantza sektorea AAko enpresak estuago aztertzen hasi zen, bereziki zalantzan jarriz haien balorazio masiboen araberako inbertsioaren errentagarritasuna eragiteko duten gaitasuna. Inbertitzaile ospetsu batzuek kezka sortu zuten merkatuen itxaropenak funtsezko enpresa-errealitateetatik deskonektatuta geratu zirelako. Jeremy Grantham-ek, GMO LLC-ren sortzaileetako batek, inbertitzaileei "kontuz ibiltzeko" ohartarazi zien eta teknologiak bultzatutako aurreko merkatu-burbuilekiko paralelismoak marraztu zituen.[75] Era berean, Jeffrey Gundlach-ek, DoubleLine Capital-eko CEOak, esplizituki alderatu zuen AA-ren booma 1990eko hamarkadaren amaierako puntu-com burbuilarekin, inbertitzaileen gogoa epe hurbileko gaitasun eta diru-sarrera potentzial errealistak gainditzen ari litekeela adieraziz.[76] Kezka horiek areagotu egin ziren AAn zentratutako enpresen merkatu-kapitalizazio nabarmenen ondorioz, horietako askok oraindik errentagarritasun-eredu jasangarriak frogatu behar baitzituzten.
2024ko martxoan, Antropikok Claude 3 hizkuntza-eredu handien familia kaleratu zuen, besteak beste, Claude 3 Haiku, Sonnet eta Opus.[77] Ereduek hobekuntza nabarmenak erakutsi zituzten hainbat erreferentzia markoren bidez, Claude 3 Opus-ek, OpenAI eta Google-ren modelo liderrak nabarmenki gaindituz.[78] 2024ko ekainean, Anthropic-ek Claude 3.5 Sonnet kaleratu zuen, Claude 3 Opus handiagoarekin alderatuta errendimendu hobeagoa erakutsi zuena, bereziki kodifikazioan, urrats anitzeko lan-fluxu eta irudien analisia bezalako arloetan.[79]
2024ko Nobel sariak
[aldatu | aldatu iturburu kodea]2024an, Suediako Zientzien Errege Akademiak Nobel sariak eman zituen adimen artifizialari egindako ekarpen apurtzaileak aitortzeko. Hartzaileen artean honako hauek zeuden:
- Fisikan: John Hopfield, fisikan inspiratutako Hopfield sareetan egindako lanagatik, eta Geoffrey Hinton, Boltzmann makinei eta ikaskuntza sakonari egindako ekarpen fundazionalengatik.
- Kimikan: David Baker, Demis Hassabis eta John Jumper proteina tolestuen iragarpenetan egindako aurrerapenengatik. Ikus AlphaFold.
AAren azterketa eta garapen osagarria
[aldatu | aldatu iturburu kodea]2025eko urtarrilean, OpenAIk AA berri bat iragarri zuen, ChatGPT-Gov, AEBetako gobernu-agentziek modu seguruan erabiltzeko berariaz diseinatuko zena. Open AIk esan zuen agentziek ChatGPT Gov erabil zezaketela Microsoft Azure hodei batean edo Azure Government hodeian, "Microsoften Azure OpenAI Zerbitzuaren gainean". OpenAIren iragarkiak honako hau adierazi zuen: "ChatGPT Gov ostatu automatikoak aukera ematen die agentziei beren segurtasun, pribatutasun eta betetze baldintzak errazago kudeatzeko, hala nola zibersegurtasun esparru zorrotzak (IL5, CJIS, ITAR, FedRAMP High). Horrez gain, uste dugu azpiegitura honek OpenAIren tresnen barne-baimena arinduko duela datu sentikor ez publikoak maneiatzeko".
Integrazio robotikoa eta adimen artifizialaren aplikazio praktikoak (2025–gaur egun)
[aldatu | aldatu iturburu kodea]Adimen artifizialeko sistema aurreratuak, giza elkarrizketa zehaztasun handiz ulertzeko eta erantzuteko gai direnak, heldu egin dira robotikarekin etenik gabeko integrazioa ahalbidetzeko, manufaktura, etxeko automatizazioa, osasungintza, zerbitzu publikoak eta materialen ikerketa bezalako industriak eraldatuz.[80] Adimen artifizialaren aplikazioek ere ikerketa zientifikoa bizkortzen dute, datuen analisi aurreratuaren eta hipotesien sorreraren bidez.[81] Txinak, Estatu Batuek eta Japoniak, besteak beste, inbertsio handiak egin dituzte AA bidez bultzatutako robotak hedatzeko politiketan eta finantzaketan, lan-gabeziei aurre eginez, berrikuntza bultzatuz eta eraginkortasuna hobetuz, eta, aldi berean, garapen etikoa eta segurua bermatzeko arau-esparruak ezarriz.[82]
Txina
[aldatu | aldatu iturburu kodea]2025. urtea "AA Robotikaren Urtea" izendatu dute, eta funtsezko unea izan da adimen artifizialaren eta robotikaren integrazio etengabean. 2025ean, Txinak gutxi gorabehera 730 mila milioi yuan inbertitu zituen (100 mila milioi dolar inguru) AAk eta robotikak fabrikazio adimentsuan eta osasunean aurrera egiteko.[83][84] "14. Bost Urteko Planak" (2021–2025) zerbitzu-robotak lehenetsi zituen, AA sistemei esker robotek zeregin konplexuak egin zitzaketen, hala nola kirurgietan laguntzea edo fabrikako muntaketa-lerroak automatizatzea.[85] Esate baterako, Txinako ospitaleetan AAk elikatutako robot humanoideek pazienteen eskaerak interpreta ditzakete, arreta eman eta erizainei ohiko zereginetan lagun diezaiekete, existitzen diren AAr-ren elkarrizketa-gaitasunak aplikazio robotiko praktikoetarako nahikoa sendoak direla frogatuz. 2025eko irailetik aurrera, Txinak AA-ren bidez sortutako edukiak etiketatzeko agindua eman zuen, teknologia horietan gardentasuna eta herritarren konfiantza bermatzeko.[86]
Estatu Batuak
[aldatu | aldatu iturburu kodea]2025eko urtarrilean, adimen artifizialaren azpiegituretan inbertsio garrantzitsu bat gauzatu zen Stargate LLC sortu zenean. OpenAI, SoftBank, Oracle eta MGX enpresek sortutako lankidetza-proiektu honek 500.000 milioi AEBetako dolar inbertitzeko asmoa iragarri zuen 2029rako, Estatu Batuetan AA azpiegiturak garatzeko. Lehenengo fasean, 100.000 milioi dolarreko inbertsioa egingo dute, AEBetako berrindustrializazioa sustatzeko eta herrialdearen eta bere aliatuen segurtasun nazionala babesteko gaitasun estrategikoa eskaintzeko. Elkarlan hau ofizialki iragarri zuen AEBetako presidente Donald Trumpek 2025eko urtarrilaren 21ean, eta SoftBank-eko zuzendari nagusi Masayoshi Son izendatu zuten lehendakari.[87][88]
2025ean Estatu Batuetako gobernuak 2.000 milioi dolar inguru bideratu zituen AA robotika fabrikazioan eta logistikan integratzeko, AAk lengoaia naturala prozesatzeko eta erabiltzaileen argibideak exekutatzeko duen gaitasuna baliatuz.[89] Estatuko gobernuek zerbitzu-roboten finantzaketarekin osatu zuten, hala nola biltegietako inbentarioak kudeatzeko hitzezko aginduen bidezkoak edo zaharrentzako arreta-eskaerei erantzuteko zahar-etxeetako instalazioak.[90] Aplikazio horiek nabarmentzen dute AA aurreratua, dagoeneko giza elkarrekintzan trebea, hardware robotikoarekin fusionatzea aurrerapauso praktikoa dela. Funts batzuk defentsara bideratu ziren, besteak beste, arma autonomo hilgarria eta robot militarra. 2025eko urtarrilean, 14179 Agindu Betearazleak "AAren Ekintza Plana" ezarri zuen teknologia horien berrikuntza eta hedapena bizkortzeko.[91]
Eragina
[aldatu | aldatu iturburu kodea]2020ko hamarkadan, mundu osoko gobernuek eta erakundeek AAn egindako inbertsio handiek adimen artifizialaren aurrerapena bizkortu dute, aurrerapen zientifikoak eta langileen produktibitatea bultzatuz eta zeregin konplexuen automatizazioaren bidez industriak eraldatuz.[92] Adimen artifizialeko sistema aurreratuak hainbat sektoretan arazorik gabe integratuz, garapen horiek fabrikazio eta zerbitzu adimendunen industriak iraultzen dituzte, batez ere eguneroko bizitza eraldatuz.
Ikus, gainera
[aldatu | aldatu iturburu kodea]- Adimen artifizialaren aurrerapena
- Adimen artifiziala
- Adimen artifizialaren booma
- Adimen artifizial orokorra
Erreferentziak
[aldatu | aldatu iturburu kodea]- ↑ Lighthill, James. (1972). «"Artificial Intelligence: A General Survey (Lighthill Report)"» www.chilton-computing.org.uk (Artificial Intelligence: a paper symposium, Science Research Council) (kontsulta data: 2022-08-03).
- ↑ «Apollodorus, Library, book 1, chapter 9, section 26» www.perseus.tufts.edu (kontsulta data: 2022-08-03).
- ↑ Rhodios, Apollonios. (2007). The Argonautika : Expanded Edition.. (2nd ed. argitaraldia) University of California Press ISBN 978-0-520-93439-9. PMC 811491744. (kontsulta data: 2022-08-03).
- ↑ Morford, Mark P O Morford, Robert J Lenardon, Michael Sham. (2018). Classical mythology. (Eleventh edition. argitaraldia) ISBN 978-0-19-085164-4. PMC 1013500427. (kontsulta data: 2022-08-03).
- ↑ Kressel, Matthew. (2015-10-01). «36 Days of Judaic Myth: Day 24, The Golem of Prague» Matthew Kressel.
- ↑ «GOLEM - JewishEncyclopedia.com» www.jewishencyclopedia.com (kontsulta data: 2022-08-03).
- ↑ Harvey P Newquist, "The Brain Makers : Genius, Ego, and Greed in the Quest for Machines that Think]" (1994), New York: Macmillan/SAMS, ISBN 978-0-9885937-1-8
- ↑ "Sanhedrin 65b". www.sefaria.org. https://www.sefaria.org/Sanhedrin.65b.17?lang=bi&with=all&lang2=en
- ↑ O'Connor, Kathleen Malone. (1994). «The alchemical creation of life (takwin) and other concepts of Genesis in medieval Islam» Dissertations Available from ProQuest: 1–435..
- ↑ .
- ↑ Cave, Stephen; Dihal, Kanta. (2019). «Esperanzas y temores por las máquinas inteligentes en la ficción y la realidad» Nature Machine Intelligence 1 (2): 74–78. doi: . ISSN 2522-5839..
- ↑ Norvig, Peter. (2006-11). «Peter Norvig» New Scientist 192 (2578): 50. doi: . ISSN 0262-4079. (kontsulta data: 2025-03-21).
- ↑ Hughes, Andrew; Rosenfeld, Randall. (2001). Llull, Ramon. Oxford University Press (kontsulta data: 2025-03-21).
- ↑ WALTON, D.W.H.; BONNER, W.N.. (1985). «Terrestrial Habitats — Introduction» Antarctica (Elsevier): 71–72. ISBN 978-0-08-028881-9. (kontsulta data: 2025-03-21).
- ↑ 17th century mechanism and AI: McCorduck, 2004, or. 37–46; Russell eta Norvig, 2021; Buchanan, 2005
- ↑ Hobbes and AI: Russell eta Norvig, 2021; McCorduck, 2004; Hobbes, 1651
- ↑ Leibniz and AI: McCorduck, 2004; Russell eta Norvig, 2021}; Berlinski, 2000; Buchanan, 2005
- ↑ Norvig, Peter. (2006-11). «Peter Norvig» New Scientist 192 (2578): 50. doi: . ISSN 0262-4079. (kontsulta data: 2025-03-21).
- ↑ Gotwals, Vernon; Caldwell, Judi. (2010-09-16). Berlinski, Hermann. Oxford University Press (kontsulta data: 2025-03-21).
- ↑ Norvig, Peter. (2006-11). «Peter Norvig» New Scientist 192 (2578): 50. doi: . ISSN 0262-4079. (kontsulta data: 2025-03-21).
- ↑ Lang, Rudolf. (1993). «Zusammenfassung» Internationales Emissionsgeschäft (Gabler Verlag): 190–196. ISBN 978-3-409-14141-3. (kontsulta data: 2025-03-21).
- ↑ The Turing machine: Newquist, 1994; McCorduck, 2004; Crevier, 1993; Russell eta Norvig, 2021 and see Turing, 1936–1937
- ↑ Menabrea, L. F.. (2021-02-02). «Sketch of the Analytical Engine (1843)» Ideas That Created the Future (The MIT Press): 9–26. ISBN 978-0-262-36317-4. (kontsulta data: 2025-03-21).
- ↑ Quoted in (Russell & Norvig 2021, 15 orr. )
- ↑ a b Norvig, Peter. (2006-11). «Peter Norvig» New Scientist 192 (2578): 50. doi: . ISSN 0262-4079. (kontsulta data: 2025-03-21).
- ↑ McCorduck, 2004, or. 51–57, 80–107, Crevier, 1993, or. 27–32, Russell eta Norvig, 2003, or. 15, 940, Moravec, 1988, Cordeschi, 2002.
- ↑ McCorduck, 2004, or. 111–136, Crevier, 1993, or. 49–51, Russell eta Norvig, 2003, Newquist, 1994, or. 91–112 and Kaplan, Andreas. «Artificial Intelligence, Business and Civilization - Our Fate Made in Machines» (en inglés). Consultado el 11 de marzo de 2022.
- ↑ McCorduck, 2004, or. 51–57, 80–107, Crevier, 1993, or. 27–32, Russell eta Norvig, 2003, or. 15, 940, Moravec, 1988, Cordeschi, 2002.
- ↑ McCulloch, Warren S.; Pitts, Walter. (1943-12-01). «Un cálculo lógico de las ideas inmanentes a la actividad nerviosa» Bulletin of Mathematical Biophysics 5 (4): 115–133. doi: . ISSN 1522-9602..
- ↑ Piccinini, Gualtiero. (2004-08-01). «La primera teoría computacional de la mente y el cerebro: una mirada cercana al "cálculo lógico de ideas inmanentes en la actividad nerviosa" de Mcculloch y Pitts» Synthese 141 (2): 175–215. doi: . ISSN 1573-0964..
- ↑ McCorduck, 2004, Crevier, 1993, Russell eta Norvig, 2003, Moravec, 1988, Cordeschi, 2002.
- ↑ «Una breve historia de la informática» www.alanturing.net.
- ↑ Schaeffer, Jonathan. One Jump Ahead:: Challenging Human Supremacy in Checkers, 1997, 2009, Springer, ISBN 978-0-387-76575-4. Chapter 6.
- ↑ McCorduck, 2004, or. 51–57, 80–107, Crevier, 1993, or. 27–32, Russell eta Norvig, 2003, or. 15, 940, Moravec, 1988, Cordeschi, 2002.
- ↑ McCorduck, 2004, or. 51–57, 80–107, Crevier, 1993, or. 27–32, Russell eta Norvig, 2003, or. 15, 940, Moravec, 1988, Cordeschi, 2002.
- ↑ Quoted in Crevier, 1993 and Russell eta Norvig, 2003
- ↑ Russell eta Norvig, 2003, or. 947,952
- ↑ Miller, George. (2003). «La revolución cognitiva: una perspectiva histórica» Trends in Cognitive Sciences 7 (3): 141–144. doi: . PMID 12639696..
- ↑ McCorduck, 2004, or. 218; Newquist, 1994; Crevier, 1993
- ↑ Crevier, 1993; Moravec, 1988, or. 9
- ↑ McCorduck, 2004, or. 286, Crevier, 1993, Russell eta Norvig, 2021, or. 20
- ↑ Quoted in Crevier, 1993, or. 102
- ↑ Simon eta Newell, 1958, or. 7−8 quoted in Crevier, 1993.
- ↑ Simon, 1965 quoted in Crevier, 1993
- ↑ Minsky, 1967 quoted in Crevier, 1993
- ↑ Crevier, 1993; Turkle, 1984
- ↑ Quoted in Crevier, 1993
- ↑ Quoted in Crevier, 1993, or. 143
- ↑ Quoted in Crevier, 1993, or. 122
- ↑ Fifth generation computer:
- ↑ Qian, Ning; Sejnovski, Terry J. (1988). «Predicting the secondary structure of globular proteins using neural network models» Journal of Molecular Biology 202 (4): 865–884. doi: ..
- ↑ Rost, Burkhard; Sander, Chris. (1993). «Improved prediction of protein secondary structure by use of sequence profiles and neural networks» Proceedings of the National Academy of Sciences 90 (16): 7558–7562. doi: . OCLC .47181.
- ↑ McGuffin, Liam J; Bryson, Kevin; Jones, David T. (2000). «The PSIPRED protein structure prediction server.» Bioinformatics 16 (4): 404–405. doi: ..
- ↑ See, for example, Lakoff eta Johnson, 1999
- ↑ Quoted in Christian, 2020, or. 22
- ↑ a b Buntz, Brian. (3 November 2024). Quality vs. quantity: US and China chart different paths in global AI patent race in 2024 / Geographical breakdown of AI patents in 2024. R&D World.
- ↑ (Ingelesez) «1.1 Generative AI stats on fundraising for AI companies by year (Copy) (update)» datawrapper.dwcdn.net.
- ↑ (Ingelesez) Frank, Michael. (September 22, 2023). «US Leadership in Artificial Intelligence Can Shape the 21st Century Global Order» The Diplomat.
- ↑ (Ingelesez) Hammond, George. (27 December 2023). «Big Tech is spending more than VC firms on AI startups» Ars Technica.
- ↑ Metz, Cade; Mickle, Tripp. (February 16, 2024). «OpenAI Completes Deal That Values the Company at $80 Billion» The New York Times.
- ↑ Hur, Krystal. (2024-06-19). «Nvidia surpasses Microsoft to become the largest public company in the world» CNN.
- ↑ Ng, Andrew. (April 1, 2020). «Voice Cloning for the Masses» DeepLearning.AI.
- ↑ Chandraseta, Rionaldi. (January 21, 2021). «Generate Your Favourite Characters' Voice Lines using Machine Learning» Towards Data Science.
- ↑ Temitope, Yusuf. (December 10, 2024). «15.ai Creator reveals journey from MIT Project to internet phenomenon» The Guardian.
- ↑ Anirudh VK. (March 18, 2023). «Deepfakes Are Elevating Meme Culture, But At What Cost?» Analytics India Magazine.
- ↑ «Navigating the Challenges and Opportunities of Synthetic Voices» OpenAI March 9, 2024.
- ↑ Clayton, Natalie. (January 19, 2021). «Make the cast of TF2 recite old memes with this AI text-to-speech tool» PC Gamer.
- ↑ (Japonieraz) Kurosawa, Yuki. (January 19, 2021). «ゲームキャラ音声読み上げソフト「15.ai」公開中。『Undertale』や『Portal』のキャラに好きなセリフを言ってもらえる» AUTOMATON.
- ↑ Wright, Steven. (March 21, 2023). «Why Biden, Trump, and Obama Arguing Over Video Games Is YouTube's New Obsession» Inverse.
- ↑ (Ingelesez) Milmo, Dan. (December 2, 2023). «ChatGPT reaches 100 million users two months after launch» The Guardian.
- ↑ Roumeliotis, Konstantinos I.; Tselikas, Nikolaos D.. (2023). «ChatGPT and Open-AI Models: A Preliminary Review» Future Internet 15 (6): 192. doi: ..
- ↑ Weise, Karen; Metz, Cade; Grant, Nico; Isaac, Mike. (December 5, 2023). «Inside the A.I. Arms Race That Changed Silicon Valley Forever» The New York Times.
- ↑ Hurst, Luke. (March 30, 2023). «'Profound risk to humanity': Tech leaders call for 'pause' on advanced AI development» Euronews.
- ↑ Taylor, Josh. (May 7, 2023). «Rise of artificial intelligence is inevitable but should not be feared, 'father of AI' says» The Guardian.
- ↑ Wollman Rusoff, Jane. (2024-02-01). Jeremy Grantham Warns Investors to 'Be Quite Careful' as Big Risks Loom. .
- ↑ Mohamed, Theron. (2024-03-23). «Elite investor Jeffrey Gundlach compares the AI boom in stocks to the dot-com bubble — and warns of economic pain» Business Insider.
- ↑ Introducing the next generation of Claude. .
- ↑ Nuñez, Michael. (2024-03-04). «Anthropic unveils Claude 3, surpassing GPT-4 and Gemini Ultra in benchmark tests» Venture Beat.
- ↑ (Ingelesez) Pierce, David. (2024-06-20). «Anthropic has a fast new AI model — and a clever new way to interact with chatbots» The Verge.
- ↑ (Ingelesez) Elon Musk thinks robots are a $10 trillion business. He's got some competition from China. CNN 2025-03-25.
- ↑ (Ingelesez) Scientific discovery in the age of artificial intelligence. Nature 2023-08-02.
- ↑ (Ingelesez) AI Action Summit. AI Action Summit 2025-02-11.
- ↑ (Ingelesez) Dark Factories and the Future of Work: How AI-Driven Automation is Reshaping Manufacturing. unite.ai 2025-03-26.
- ↑ (Ingelesez) Elon Musk thinks robots are a $10 trillion business. He's got some competition from China. CNN 2025-03-25.
- ↑ (Ingelesez) The Chinese Humanoid Robot AI Market - Investor Opportunities. China Briefing 2025-04-07.
- ↑ (Ingelesez) 人工智能生成合成内容标识办法. 2025-03-17.
- ↑ «OpenAI, SoftBank, Oracle to invest US$500 BILLION in AI, Trump says.» Reuters.
- ↑ Zakrzewski, Cat. (January 24, 2025). «OpenAI and other tech titans worked on Stargate deal months before Trump won» The Washington Post.
- ↑ (Ingelesez) Humanoid Robots to Become the Next US-China Battleground. Business Wire 2025-02-24.
- ↑ (Ingelesez) US robotics companies push for national strategy, including a central office, to compete with China. The Boston Globe 2025-03-28.
- ↑ (Ingelesez) Removing Barriers to American Leadership in Artificial Intelligence. The White House 2025-01-24.
- ↑ (Ingelesez) China's AI-powered humanoid robots aim to transform manufacturing. Reuters 2025-05-13.
Bibliografia
[aldatu | aldatu iturburu kodea]- Berlinski, David. (2000). The Advent of the Algorithm. Harcourt Books ISBN 978-0-15-601391-8. OCLC .46890682..
- Buchanan, Bruce G.. (Winter 2005). «A (Very) Brief History of Artificial Intelligence» AI Magazine: 53–60...
- Brooks, Rodney. (1990). «Elephants Don't Play Chess» Robotics and Autonomous Systems 6 (1–2): 3–15. doi: ...
- Butler, Samuel. (13 June 1863). «Darwin Among the Machines» The Press, Christchurch, New Zealand..
- Colby, Kenneth M.; Watt, James B.; Gilbert, John P.. (1966). «A Computer Method of Psychotherapy: Preliminary Communication» The Journal of Nervous and Mental Disease 142 (2): 148–152. doi: . PMID 5936301...
- Colby, Kenneth M.. (September 1974). Ten Criticisms of Parry. Stanford Artificial Intelligence Laboratory REPORT NO. STAN-CS-74-457..
- CNN. (26 July 2006). AI set to exceed human brain power. CNN.com..
- Copeland, Jack. (2000). Micro-World AI. ..
- Cordeschi, Roberto. (2002). The Discovery of the Artificial. Kluwer...
- Txantiloi:Crevier 1993
- Darrach, Brad. (20 November 1970). «Meet Shaky, the First Electronic Person» Life Magazine: 58–68...
- Doyle, J.. (1983). «What is rational psychology? Toward a modern mental philosophy» AI Magazine 4 (3): 50–53...
- Dreyfus, Hubert. (1965). Alchemy and AI. RAND Corporation Memo..
- Dreyfus, Hubert. (1972). What Computers Can't Do. MIT Press ISBN 978-0-06-090613-9. OCLC .5056816..
- The Economist. (7 June 2007). «Are You Talking to Me?» The Economist..
- Feigenbaum, Edward A.; McCorduck, Pamela. (1983). The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World. Michael Joseph ISBN 978-0-7181-2401-4...
- Hawkins, Jeff; Blakeslee, Sandra. (2004). On Intelligence. Owl Books ISBN 978-0-8050-7853-4. OCLC .61273290..
- Hebb, D.O.. (1949). The Organization of Behavior. Wiley ISBN 978-0-8058-4300-2. OCLC .48871099..
- Hewitt, Carl; Bishop, Peter; Steiger, Richard. (1973). A Universal Modular Actor Formalism for Artificial Intelligence. IJCAI.
- Hobbes, Thomas. (1651). Leviathan. ..
- Hofstadter, Douglas. (1999). Gödel, Escher, Bach: an Eternal Golden Braid. Basic Books ISBN 978-0-465-02656-2. OCLC .225590743..
- Howe, J.. (November 1994). Artificial Intelligence at Edinburgh University: a Perspective. ..
- Kaplan, Andreas; Haenlein, Michael. (2018). «Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence» Business Horizons 62: 15–25. doi: ...
- Kolata, G.. (1982). «How can computers get common sense?» Science 217 (4566): 1237–1238. doi: . PMID 17837639. Bibcode: 1982Sci...217.1237K...
- Kurzweil, Ray. (2005). The Singularity is Near. Viking Press ISBN 978-0-14-303788-0. OCLC .71826177..
- Lakoff, George. (1987). Women, Fire, and Dangerous Things: What Categories Reveal About the Mind. University of Chicago Press. ISBN 978-0-226-46804-4...
- Lenat, Douglas; Guha, R. V.. (1989). Building Large Knowledge-Based Systems. Addison-Wesley ISBN 978-0-201-51752-1. OCLC .19981533..
- Levitt, Gerald M.. (2000). The Turk, Chess Automaton. McFarland ISBN 978-0-7864-0778-1...
- Lighthill, Professor Sir James. (1973). Artificial Intelligence: a paper symposium. Science Research Council.
- Lucas, John. (1961). «Minds, Machines and Gödel» Philosophy 36 (XXXVI): 112–127. doi: ..
- Maker, Meg Houston. (2006). AI@50: AI Past, Present, Future. .
- Markoff, John. (14 October 2005). «Behind Artificial Intelligence, a Squadron of Bright Real People» The New York Times.
- McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude. (31 August 1955). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. .
- McCarthy, John; Hayes, P. J.. (1969). Meltzer ed. Machine Intelligence 4. Edinburgh University Press, 463–502 or..
- McCorduck, Pamela. (2004). Machines Who Think. (2nd. argitaraldia) A. K. Peters, Ltd. ISBN 978-1-56881-205-2. OCLC .52197627..
- McCullough, W. S.; Pitts, W.. (1943). «A logical calculus of the ideas immanent in nervous activity» Bulletin of Mathematical Biophysics 5 (4): 115–127. doi: ..
- Menabrea, Luigi Federico; Lovelace, Ada. (1843). «Sketch of the Analytical Engine Invented by Charles Babbage» Scientific Memoirs 3. With notes upon the Memoir by the Translator
- Minsky, Marvin. (1967). Computation: Finite and Infinite Machines. Prentice-Hall.
- Minsky, Marvin; Papert, Seymour. (1969). Perceptrons: An Introduction to Computational Geometry. The MIT Press ISBN 978-0-262-63111-2. OCLC .16924756.
- Minsky, Marvin. (1974). A Framework for Representing Knowledge. .
- Minsky, Marvin. (1986). The Society of Mind. Simon and Schuster ISBN 978-0-671-65713-0. OCLC .223353010.
- Minsky, Marvin. (2001). It's 2001. Where Is HAL?. Dr. Dobb's Technetcast.
- Moravec, Hans. (1976). The Role of Raw Power in Intelligence. .
- Moravec, Hans. (1988). Mind Children. Harvard University Press ISBN 978-0-674-57618-6. OCLC .245755104.
- NRC. (1999). «Developments in Artificial Intelligence» Funding a Revolution: Government Support for Computing Research. National Academy Press ISBN 978-0-309-06278-7. OCLC .246584055.
- Newell, Allen; Simon, H. A.. (1963). Feigenbaum ed. Computers and Thought. McGraw-Hill ISBN 978-0-262-56092-4. OCLC .246968117.
- Newquist, HP. (1994). The Brain Makers: Genius, Ego, And Greed in the Quest For Machines That Think. Macmillan/SAMS ISBN 978-0-9885937-1-8..
- Nick, Martin. (2005). Al Jazari: The Ingenious 13th Century Muslim Mechanic. Al Shindagah..*
- O'Connor, Kathleen Malone. (1994). The alchemical creation of life (takwin) and other concepts of Genesis in medieval Islam. University of Pennsylvania, 1–435 or..
- Olsen, Stefanie. (10 May 2004). Newsmaker: Google's man behind the curtain. CNET..
- Olsen, Stefanie. (18 August 2006). Spying an intelligent search engine. CNET..
- Pearl, J.. (1988). Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference. Morgan Kaufmann ISBN 978-1-55860-479-7. OCLC .249625842..
- Txantiloi:Russell Norvig 2003.
- Poole, David; Mackworth, Alan; Goebel, Randy. (1998). Computational Intelligence: A Logical Approach. Oxford University Press. ISBN 978-0-19-510270-3...
- Samuel, Arthur L.. (July 1959). «Some studies in machine learning using the game of checkers» IBM Journal of Research and Development 3 (3): 210–219. doi: ...
- Txantiloi:Searle 1980.
- Simon, H. A.; Newell, Allen. (1958). «Heuristic Problem Solving: The Next Advance in Operations Research» Operations Research 6: 1–10. doi: ...
- Simon, H. A.. (1965). The Shape of Automation for Men and Management. Harper & Row..
- Skillings, Jonathan. (2006). Newsmaker: Getting machines to think like us. CNET..
- Tascarella, Patty. (14 August 2006). «Robotics firms find fundraising struggle, with venture capital shy» Pittsburgh Business Times..
- Turing, Alan. (1936–37). «On Computable Numbers, with an Application to the Entscheidungsproblem» Proceedings of the London Mathematical Society in: 2. s2-42 (42): 230–265. doi: ...
- Txantiloi:Turing 1950.
- Weizenbaum, Joseph. (1976). Computer Power and Human Reason. W.H. Freeman & Company ISBN 978-0-14-022535-8. OCLC .10952283..