Meta a anunțat marți că a lansat Llama 3.1, unul dintre cele mai mari modele open-source. În privința testelor de performanță, Meta susține că programul său depășește GPT-4o și Claude 3.5 Sonnet, de la Anthropic. De asemenea, Meta a mai transmis că își extinde asistentul AI bazat pe Llama în mai multe țări și limbi (inclusiv franceză, germană, hindi, italiană și spaniolă) și adaugă o funcție care poate genera imagini pe baza înfățișării unei persoane.

Llama 3.1 are 405 miliarde de parametri și a fost antrenat cu peste 16 mii de unități de procesare grafică Nvidia H100. Meta nu a dezvăluit costul dezvoltării programului, dar susține că, față de GPT-4o al OpenAI, cheltuielile sale au fost cu 50% mai reduse.

De altfel, o nouă funcție, denumită sugestiv “Imagine Me”, scanează fața utilizatorului prin camera telefonului pentru a-i permite să insereze chipul în imagini generate de AI. Prin capturarea înfățișării în acest mod, și nu prin fotografiile din profilul utilizatorului, Meta speră să evite deepfakes.

Directorul executiv al Meta, Mark Zuckerberg, estimează că noul model lingvistic va deveni, până la sfârșitul acestui an, cel mai utilizat asistent, și va depăși ChatGPT. Începând cu această săptămână, Llama 3.1 va fi accesibil mai întâi prin WhatsApp și site-ul Meta AI în SUA, urmat de Instagram și Facebook. 

Având în vedere că este un model open-source, Meta colaborează cu peste 20 de companii, inclusiv Microsoft, Amazon, Google, Nvidia și Databricks, pentru a ajuta dezvoltatorii să-și implementeze propriile versiuni.

Sursă: Meta

Echipa Biziday nu a solicitat și nu a acceptat nicio formă de finanțare din fonduri guvernamentale. Spațiile de publicitate sunt limitate, iar reclama neinvazivă.

Dacă îți place ce facem, poți contribui tu pentru susținerea echipei Biziday.

Susține echipa Biziday