Hugging Face

From Wikipedia, the free encyclopedia

Remove ads

Hugging Face (literalki euskaraz: «Besarkatzeko aurpegia») Frantziako eta AEBko enpresa bat da, eta ikasketa automatikozko aplikazioak eraikitzeko tresnak garatzen ditu. New Yorken du egoitza. Oso ezaguna da Hizkuntzaren prozesamenduko aplikazioetarako eraiki duen Transformers liburutegiagatik, erabiltzaileei ikasketa automatikoko ereduak eta datu-nultzoak partekatzeagatik eta beren lana erakusteko aukera ematen dien plataformagatik.[1]

Datu azkarrak Datuak, Mota ...
Remove ads

Historia

Clément Delangue, Julien Chaumond eta Thomas Wolf enpresaburu frantsesek sortu zuten konpainia 2016an, New Yorken. Hasieran, nerabeei zuzendutako Txatbot aplikazio bat garatu zuten konpainia gisa.[2] Txatbotaren atzean zegoen eredua kode ireki moduan zabaldu ondoren, konpainiak ikasketa automatikorako plataforma izatea lehenetsi zuen.

2021eko martxoan, Hugging Face-k 40 milioi dolar bildu zituen B serieko finantziazio-saio batean.[3]

2021eko apirilaren 28an, konpainiak BigScience Ikerketa Tailerra jarri zuen abian, beste ikerketa-talde batzuekin lankidetzan, hizkuntza eredu handi ireki bat zabaltzeko.[4] 2022an, tailerra amaitzeko, BLOOM hizkuntza-eredua argitaratu zuten, hizkuntza eredu handi eleaniztuna, 176 mila milioi parametrokoa.[5][6]

2022ko maiatzaren 5ean, Coatue eta Sequoiak zuzendutako C seriea finantzatzeko txanda iragarri zuen konpainiak.[7] Enpresak 2.000 milioi dolarreko balorazioa jaso zuen.

2022ko abuztuaren 3an, konpainiak Hugging Face Hub laborategi publikoaren enpresa-bertsio bat iragarri zuen laborategi pribatu gisa.[8]

2023ko otsailean, konpainiak elkarte bat iragarri zuen Amazon Web Services (AWS) enpresarekin, eta, horri esker, AWS enpresaren bezeroentzat eskuragarri dauden Hugging Face produktuak eraikuntza-bloke gisa erabil ditzakete beren bezeroentzako aplikazioetan. Halaber, konpainiak esan zuen BLOOMen hurrengo belaunaldia Trainium-en egingo dela, AWS enpresak sortutako ikasketa automatikorako txip jabedunean.[9][10][11][12]

2023ko abuztuan, konpainiak iragarri zuen 235 milioi dolar bildu zituela D Serieko finantziazio batean, eta 4,5 mila milioi dolar eman zituela. Finantzaketa Salesforcek zuzendu zuen, eta Google, Amazon, Nvidia, AMD, Intel, IBM eta Qualcomm-en partaidetza nabarmena izan zen.[13]

Remove ads

Zerbitzuak eta teknologiak

Transformers liburutegia

Transformers liburutegia Python pakete bat da, eta testu, irudi eta audio lanetarako transformazio-ereduen kode irekiko inplementazioak ditu. Bateragarria da ikaskuntza sakoneko PyTorch, TensorFlow eta JAX liburutegiekin, eta BERT eta GPT-2 ereduetako inplementazioak barne hartzen ditu.[14] Liburutegiari "pitorch-pretrained-bert" deitzen zitzaion hasieran, eta gero "pitorch-transformers" eta, azkenik, "transformers".[15]

Hugging Face Hub

Hugging Face Hub plataforma bat da (web zerbitzu zentralizatua), honako hauek ostatatzen dituena:[16]

  • Git-based-en oinarritutako kode-biltegiak, eztabaidak eta proiektu-eskaerak barne.
  • ereduak, Git-based-en oinarritutako bertsio-kontrolarekin;
  • datu-multzoak, batez ere testuzkoak, irudizkoak eta audiozkoak;
  • web aplikazioak ("espazioak" eta "widgetak"), ikasketa automatikozko aplikazioak eskala txikiko demoak sortzeko-edo.

Beste liburutegi batzuk

Transformers eta Hugging Face Hub-ez gain, Hugging Face ekosistemak beste zeregin batzuetarako liburutegiak ere baditu, hala nola, datu-multzoen prozesamendua ("Datasets"), ereduen ebaluazioa ("Evaluate"), simulazioa ("Simulate"), eta ikaskuntza automatikoko demoak ("Gradio").[17]

Remove ads

Erreferentziak

Ikus, gainera

Kanpo estekak

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads