OpenAI, Creatorii ChatGPT, se angajează să dezvolte sisteme AI sigure

imagine1.png

OpenAI a publicat un nou articol pe blog angajându-se să dezvolte inteligența artificială (IA) care să fie sigură și să aducă beneficii pe scară largă.

ChatGPT, alimentat de cea mai recentă versiune a modelului OpenAI, GPT-4, poate îmbunătăți productivitatea, spori creativitatea și oferi experiențe de învățare personalizate.

Cu toate acestea, OpenAI recunoaște că instrumentele de inteligență artificială au riscuri intrinseci care trebuie abordate prin măsuri de siguranță și implementare responsabilă.

Iată ce face compania pentru a reduce aceste riscuri.

Asigurarea siguranței în sistemele de inteligență artificială

OpenAI desfășoară teste riguroase, solicita ghidare externă de la experți și își îmbunătățește modelele AI cu ajutorul feedback-ului uman înainte de a lansa sisteme noi.

Lansarea lui GPT-4, de exemplu, a fost precedată de peste șase luni de testare pentru a asigura siguranța și alinierea cu nevoile utilizatorilor.

OpenAI este de părere că sistemele AI robuste trebuie să fie supuse unor evaluări riguroase de siguranță și susține necesitatea reglementării.

Învățând din utilizarea reală

Folosirea în lumea reală este un component critic în dezvoltarea sistemelor AI sigure. Prin lansarea treptată a modelelor noi către o bază de utilizatori în expansiune, OpenAI poate face îmbunătățiri care abordează problemele neprevăzute.

Prin oferirea modelelor de AI prin intermediul API-ului și site-ului său, OpenAI poate monitoriza utilizarea abuzivă, lua măsuri adecvate și dezvolta politici subtile pentru a echilibra riscul.

Protejarea copiilor și respectarea confidențialității

OpenAI acordă prioritate protejării copiilor prin cererea de verificare a vârstei și interzicerea utilizării tehnologiei sale pentru generarea de conținut nociv.

Intimitatea este un alt aspect esențial al activității OpenAI. Organizația utilizează datele pentru a-și face modelele mai utile, în timp ce protejează utilizatorii.

În plus, OpenAI elimină informațiile personale din seturile de date de antrenament și ajustează modelele pentru a respinge cererile de informații personale.

OpenAI va răspunde solicitărilor de ștergere a informațiilor personale din sistemul său.

Îmbunătățirea exactității factual

Exactitatea factuală este un aspect important pentru OpenAI. GPT-4 este cu 40% mai probabil să producă conținut exact decât predecesorul său, GPT-3.5.

Organizația își propune să informeze utilizatorii cu privire la limitările instrumentelor AI și posibilitatea de inexactități.

Cercetare și implicare continuă

OpenAI crede în dedicarea timpului și a resurselor pentru cercetarea tehnicilor eficiente de atenuare și a alinierii.

Însă, aceasta nu poate fi realizată de una singură. Abordarea problemelor de siguranță necesită dezbateri extinse, experimente și implicarea tuturor părților interesate.

OpenAI rămâne angajată în promovarea colaborării și dialogului deschis pentru a crea un ecosistem AI sigur.

Critici cu privire la riscurile existențiale

În ciuda angajamentului OpenAI de a asigura siguranța și beneficiile largi ale sistemelor sale de inteligență artificială, postarea sa pe blog a stârnit critici pe rețelele de socializare.

Utilizatorii de pe Twitter și-au exprimat dezamăgirea, afirmând că OpenAI nu abordează riscurile existențiale asociate cu dezvoltarea IA.

Un utilizator Twitter și-a exprimat dezamăgirea, acuzând OpenAI că își trădează misiunea fondatoare și se concentrează pe comercializarea iresponsabilă.

Utilizatorul sugerează că abordarea OpenAI în materie de siguranță este superficială și mai preocupată de mulțumirea criticilor decât de abordarea riscurilor existențiale reale.

Acest lucru este în mod amărât de dezamăgitor, lipsit de conținut și o etalare de imagine de PR.

Nici măcar nu menționați riscurile existențiale ale IA care sunt preocuparea centrală a multor cetățeni, tehnologi, cercetători AI și lideri ai industriei de IA, inclusiv propiul vostru CEO @sama. @OpenAI își trădează...

— Geoffrey Miller (@primalpoly) 5 aprilie 2023

Un alt utilizator și-a exprimat nemulțumirea față de anunț, argumentând că acesta trece în grabă peste probleme reale și rămâne vag. Utilizatorul evidențiază, de asemenea, faptul că raportul ignoră aspecte etice critice și riscuri legate de auto-conștientizarea AI, sugerând că abordarea OpenAI privind problemele legate de securitate este inadecvată.

Ca fan al lui GPT-4, sunt dezamăgit de articolul dumneavoastră.

Acesta trece cu vederea problemele reale, rămâne vag și ignoră aspectele etice și riscurile cruciale legate de conștientizarea de sine a IA.

Apreciem inovația, dar aceasta nu este abordarea corectă pentru a aborda problemele de securitate.

- FrankyLabs (@FrankyLabs) 5 aprilie 2023

Critica subliniază preocupările mai largi și dezbaterea în curs despre riscurile existențiale generate de dezvoltarea IA.

În timp ce anunțul OpenAI evidențiază angajamentul său pentru siguranță, confidențialitate și acuratețe, este esențial să recunoaștem necesitatea unei discuții mai ample pentru a aborda preocupări mai importante.

Articole asociate

Vizualizați mai multe >>

Deblocați puterea AI cu HIX.AI!