Ce trebuie sa stiti despre noua companie AI a lui Elon Musk, xAI

Elon Musk vrea sa „inteleaga adevarata natura a universului”. Cel putin asta a spus noua sa companie de inteligenta artificiala, xAI, pe site-ul sau, cand si-a anuntat formarea miercuri.

Musk a incorporat xAI in Nevada in martie a acestui an si ar fi achizitionat „aproximativ 10.000 de unitati de procesare grafica” – hardware care este necesar pentru dezvoltarea si rularea sistemelor AI de ultima generatie. Compania nu a spus cum este finantata, dar Financial Times a raportat in aprilie ca Musk a discutat despre obtinerea de finantare de la investitori in SpaceX si Tesla, doua companii pe care le conduce.

Compania nu a impartasit prea multe detalii despre intentiile sale, dar a declarat pe site-ul sau ca echipa sa se va alatura unui apel Twitter Spaces pe 14 iulie pentru a raspunde la intrebari. (Musk este proprietarul Twitter.) Compania de inteligenta artificiala va lucra indeaproape cu Twitter, acum numita X Corp. si Tesla, precum si cu alte companii „pentru a face progrese in directia misiunii noastre”, a spus xAI pe site-ul sau.

xAI si istoria lui Musk cu inteligenta artificiala

Echipa de la xAI, condusa de Musk, include fosti angajati ai companiilor proeminente de AI OpenAI si DeepMind, precum si Microsoft si Tesla. Dan Hendrycks, directorul Centrului pentru Siguranta AI, figureaza ca consilier. Centrul pentru Siguranta Inteligentei Artificiale a fost foarte vocal cu privire la preocuparile legate de siguranta. Organizatia a lansat o declaratie semnata de sute de oameni de stiinta si experti in inteligenta artificiala, precum si de directorii executivi ai unora dintre cele mai importante companii de inteligenta artificiala in luna mai, care spunea ca „atenuarea riscului de disparitie din cauza inteligentei artificiale ar trebui sa fie o prioritate globala alaturi de alte companii la scara sociala. riscuri precum pandemiile si razboiul nuclear”. Demis Hassabis, CEO al DeepMind, Sam Altman CEO al OpenAI si Dario Amodei, CEO al Anthropic s-au numarat printre semnatari.

Musk nu a semnat declaratia Centrului pentru Siguranta AI, dar a semnat o scrisoare deschisa publicata in martie de Institutul Viitorul Vietii, care a cerut companiilor AI sa „opreasca imediat pentru cel putin 6 luni pregatirea sistemelor AI mai puternice decat GPT-4.”

Musk a fost unul dintre presedintii fondatori ai OpenAI, impreuna cu Altman, CEO-ul OpenAI. Musk s-a numarat printre un grup de investitori, printre care Altman, Greg Brockman, Reid Hoffman, Jessica Livingston, Peter Thiel, Amazon Web Services, Infosys si YC Research, care au angajat 1 miliard de dolari pentru a finanta OpenAI in 2015. Musk a spus ca a contribuit cu 100 de milioane de dolari. din acest miliard de dolari, dar a pus si cifra la jumatate.

Circumstantele plecarii lui Musk nu sunt complet clare. Potrivit unei postari pe blog OpenAI si tweet-urilor ulterioare ale lui Musk, el a parasit OpenAI in 2018 pentru a preveni conflictele de interese, deoarece Tesla a devenit mai concentrata pe AI. Semafor a raportat in martie ca Musk a propus sa-si asume conducerea OpenAI si a plecat dupa ce propunerea sa a fost respinsa. Financial Times a raportat in aprilie ca plecarea lui Musk s-a datorat si unor confruntari cu alti membri ai consiliului de administratie si personal din cauza abordarii OpenAI cu privire la siguranta AI.

De cand a plecat in 2018, Musk a criticat directia pe care a luat-o OpenAI. Intr-un interviu cu Tucker Carlson la Fox News in aprilie, Musk a spus despre companie „acestia sunt acum sursa inchisa si, evident, au profit si sunt strans aliati cu Microsoft”. Microsoft si OpenAI au un parteneriat de mai multe miliarde de dolari, care acorda OpenAI utilizarea capacitatii de cloud computing a Microsoft in schimbul sistemelor de inteligenta artificiala ale OpenAI care alimenteaza produsele Microsoft.

In martie, Musk a postat pe Twitter „Sunt inca confuz cu privire la modul in care o organizatie nonprofit careia i-am donat ~100 de milioane de dolari a devenit cumva o capitalizare de piata de 30 de miliarde de dolari pentru profit. Daca acest lucru este legal, de ce nu o face toata lumea?” OpenAI a spus anterior ca a trecut de la statutul non-profit la un „hibrid de un for-profit si non-profit”, deoarece cerintele computationale de formare a sistemelor AI de ultima generatie inseamna ca OpenAI ar trebui sa stranga mai multe fonduri decat ar trebui. sa fie disponibile unei organizatii nonprofit standard.

In interviul din aprilie cu Carlson, Musk a spus, de asemenea, ca este ingrijorat de faptul ca modelele AI sunt antrenate pentru a fi „corecte din punct de vedere politic” si s-a angajat sa creeze un „Truth GPT”, despre care a spus ca va fi o „IA maxima care cauta adevarul”.

Musk, care a vorbit frecvent despre riscurile prezentate de sistemele AI avansate in trecut, a mai spus in interviu ca a fondat o noua organizatie AI pentru a preveni „distopia AI”. Cu toate acestea, expertii si cercetatorii, inclusiv consilierul xAI Hendrycks, si-au exprimat ingrijorarea ca adaugarea unei alte companii cu resurse ridicate la ecosistemul AI ar putea alimenta si mai mult cursa pentru dezvoltarea sistemelor AI puternice, in detrimentul eforturilor de a le face sigure.

In aprilie, ca raspuns la rapoartele conform carora Musk ar infiinta probabil o noua companie de inteligenta artificiala, Hendrycks a scris ca „aparitia unui nou dezvoltator major de inteligenta artificiala va creste probabil presiunile concurentei” si ca „presiunile de a avansa pot determina actorii sa faca sacrificii. , mai ales cand exista compromisuri intre siguranta si competitivitate.”

Miercuri, intr-o discutie pe Twitter Spaces cu congresmenii Ro Khanna si Mike Gallagher, Musk a reafirmat ca abordarea sa pentru crearea unei inteligente artificiale sigure s-ar baza pe faptul ca IA cauta adevarul. Din punct de vedere al sigurantei AI, o IA maxim curios, una care incearca sa inteleaga universul, va fi pro-umanitate”, a spus Musk. „Din punctul de vedere ca omenirea este mult mai interesanta decat umanitatea.”

Jess Whittlestone, seful politicii AI la Center for Long-Term Resilience, un think tank din Marea Britanie, a declarat pentru TIME intr-un e-mail ca aceasta este „o abordare destul de neortodoxa (si cred ca destul de naiva) a sigurantei AI. Nu sunt sigur ca putem spune clar ce ar insemna ca o IA sa fie „maxim de curios” si este un salt urias sa presupunem ca asta inseamna ca o IA va fi pro-umanitate. Intreaga provocare in acest moment este ca nu putem intelege pe deplin aceste modele de inteligenta artificiala sau nu le putem prezice comportamentul si nu vad nimic in abordarea lui Musk care sa sugereze ca va rezolva asta.”