Hugging Face

Wikipedia, Entziklopedia askea
Hugging Face
Datuak
Motanegozioa eta komunitate birtuala
HerrialdeaAmeriketako Estatu Batuak
Jarduera
KidetzaBigScience Research Workshop (en) Itzuli eta DataCite (en) Itzuli
Eskumendekoak
Enplegatuak170 (2023ko iraila)
Agintea
Egoitza nagusi
Egoitza nagusi
Ekonomia
Diru-sarrerak15.000.000 $ (2022)
webgune ofiziala
Twitter: huggingface Mastodon: huggingface@mas.to LinkedIn: huggingface GitHub: huggingface Edit the value on Wikidata
Hugging Face, Inc.
Type Private
Industry Artificial intelligence, machine learning, software development
Founded 2016; 7 years ago (2016)
Headquarters
Area served
Worldwide
Key people
  • Clément Delangue (CEO)
  • Julien Chaumond (CTO)
  • Thomas Wolf (CSO)
Produktuak Ereduak, datu-multzoak, espazioak
Diru-sarrerak 15.000.000 dolar Estatu Batuetatik (2022)Edit this on Wikidata 
Langile-kopurua
160 (2023)Edit this on Wikidata 
Webgunea huggingface.co

Hugging Face (literalki euskaraz: Besarkatzeko aurpegia) Frantziako eta AEBko enpresa bat da, eta ikasketa automatikozko aplikazioak eraikitzeko tresnak garatzen ditu. New Yorken du egoitza. Oso ezaguna da Hizkuntzaren prozesamenduko aplikazioetarako eraiki duen Transformers liburutegiagatik, erabiltzaileei ikasketa automatikoko ereduak eta datu-nultzoak partekatzeagatik eta beren lana erakusteko aukera ematen dien plataformagatik.[1]

Historia[aldatu | aldatu iturburu kodea]

Clément Delangue, Julien Chaumond eta Thomas Wolf enpresaburu frantsesek sortu zuten konpainia 2016an, New Yorken. Hasieran, nerabeei zuzendutako Txatbot aplikazio bat garatu zuten konpainia gisa.[2] Txatbotaren atzean zegoen eredua kode ireki moduan zabaldu ondoren, konpainiak ikasketa automatikorako plataforma izatea lehenetsi zuen.

2021eko martxoan, Hugging Face-k 40 milioi dolar bildu zituen B serieko finantziazio-saio batean.[3]

2021eko apirilaren 28an, konpainiak BigScience Ikerketa Tailerra jarri zuen abian, beste ikerketa-talde batzuekin lankidetzan, hizkuntza eredu handi ireki bat zabaltzeko.[4] 2022an, tailerra amaitzeko, BLOOM hizkuntza-eredua argitaratu zuten, hizkuntza eredu handi eleaniztuna, 176 mila milioi parametrokoa.[5][6]

2022ko maiatzaren 5ean, Coatue eta Sequoiak zuzendutako C seriea finantzatzeko txanda iragarri zuen konpainiak.[7] Enpresak 2.000 milioi dolarreko balorazioa jaso zuen.

2022ko abuztuaren 3an, konpainiak Hugging Face Hub laborategi publikoaren enpresa-bertsio bat iragarri zuen laborategi pribatu gisa.[8]

2023ko otsailean, konpainiak elkarte bat iragarri zuen Amazon Web Services (AWS) enpresarekin, eta, horri esker, AWS enpresaren bezeroentzat eskuragarri dauden Hugging Face produktuak eraikuntza-bloke gisa erabil ditzakete beren bezeroentzako aplikazioetan. Halaber, konpainiak esan zuen BLOOMen hurrengo belaunaldia Trainium-en egingo dela, AWS enpresak sortutako ikasketa automatikorako txip jabedunean.[9][10][11][12]

2023ko abuztuan, konpainiak iragarri zuen 235 milioi dolar bildu zituela D Serieko finantziazio batean, eta 4,5 mila milioi dolar eman zituela. Finantzaketa Salesforcek zuzendu zuen, eta Google, Amazon, Nvidia, AMD, Intel, IBM eta Qualcomm-en partaidetza nabarmena izan zen.[13]

Zerbitzuak eta teknologiak[aldatu | aldatu iturburu kodea]

Transformers liburutegia[aldatu | aldatu iturburu kodea]

Transformers liburutegia Python pakete bat da, eta testu, irudi eta audio lanetarako transformazio-ereduen kode irekiko inplementazioak ditu. Bateragarria da ikaskuntza sakoneko PyTorch, TensorFlow eta JAX liburutegiekin, eta BERT eta GPT-2 ereduetako inplementazioak barne hartzen ditu.[14] Liburutegiari "pitorch-pretrained-bert" deitzen zitzaion hasieran, eta gero "pitorch-transformers" eta, azkenik, "transformers".[15]

Hugging Face Hub[aldatu | aldatu iturburu kodea]

Hugging Face Hub plataforma bat da (web zerbitzu zentralizatua), honako hauek ostatatzen dituena:[16]

  • Git-based-en oinarritutako kode-biltegiak, eztabaidak eta proiektu-eskaerak barne.
  • ereduak, Git-based-en oinarritutako bertsio-kontrolarekin;
  • datu-multzoak, batez ere testuzkoak, irudizkoak eta audiozkoak;
  • web aplikazioak ("espazioak" eta "widgetak"), ikasketa automatikozko aplikazioak eskala txikiko demoak sortzeko-edo.

Beste liburutegi batzuk[aldatu | aldatu iturburu kodea]

Transformers eta Hugging Face Hub-ez gain, Hugging Face ekosistemak beste zeregin batzuetarako liburutegiak ere baditu, hala nola, datu-multzoen prozesamendua ("Datasets"), ereduen ebaluazioa ("Evaluate"), simulazioa ("Simulate"), eta ikaskuntza automatikoko demoak ("Gradio").[17]

Erreferentziak[aldatu | aldatu iturburu kodea]

  1. (Ingelesez) HiTZ zentroa. (2023). Introduction to Language Technology Applications (Ikastaro eta mintegiak). HiTZ zentroa (UPV-EHU).
  2. (Ingelesez) «Hugging Face wants to become your artificial BFF» TechCrunch 9 March 2017.
  3. Hugging Face raises $40 million for its natural language processing library. 11 March 2021.
  4. Inside BigScience, the quest to build a powerful open language model. 10 January 2022.
  5. «BLOOM» bigscience.huggingface.co.
  6. (Ingelesez) «Inside a radical new project to democratize AI» MIT Technology Review.
  7. (Ingelesez) Cai, Kenrick. «The $2 Billion Emoji: Hugging Face Wants To Be Launchpad For A Machine Learning Revolution» Forbes.
  8. «Introducing the Private Hub: A New Way to Build With Machine Learning» huggingface.co.
  9. Bass, Dina. (2023-02-21). «Amazon's Cloud Unit Partners With Startup Hugging Face as AI Deals Heat Up» Bloomberg News.
  10. Nellis, Stephen. (2023-02-21). «Amazon Web Services pairs with Hugging Face to target AI developers» Reuters.
  11. (Ingelesez) «AWS and Hugging Face collaborate to make generative AI more accessible and cost efficient | AWS Machine Learning Blog» aws.amazon.com 2023-02-21.
  12. Julio, Gorka. (2023-07-01). «LLaMA2» Berria (Noiz kontsultatua: 2023-12-21).
  13. (Ingelesez) Leswing, Kif. (2023-08-24). «Google, Amazon, Nvidia and other tech giants invest in AI startup Hugging Face, sending its valuation to $4.5 billion» CNBC.
  14. «🤗 Transformers» huggingface.co.
  15. «First release» GitHub Nov 17, 2018.
  16. «Hugging Face Hub documentation» huggingface.co.
  17. «Hugging Face - Documentation» huggingface.co.

Ikus, gainera[aldatu | aldatu iturburu kodea]

Kanpo estekak[aldatu | aldatu iturburu kodea]

  • Julio, Gorka. (2023-07-01). «LLaMA2» Berria