„Riscuri profunde pentru societate și umanitate” – Elon Musk și un grup de experți în inteligență artificială și manageri din industrie cer, într-o scrisoare deschisă, o pauză de șase luni în antrenarea unor sisteme mai puternice decât modelul GPT-4 recent lansat de OpenAI, transmite Reuters.
„Sistemele puternice de inteligenţă artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive şi că riscurile lor vor fi gestionabile”, se arată în scrisoare.
„Sistemele puternice de inteligență artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive și că riscurile lor vor fi gestionabile”, se arată în document. „Sistemele de inteligență artificială cu inteligență uman-competitivă pot prezenta riscuri profunde pentru societate și umanitate, după cum arată ample cercetări și după cum recunosc laboratoarele de vârf de inteligență artificială”, argumentează semnatarii, între care se regăsesc și Musk, directorul general al Stability AI, Emad Mostaque, cercetători de la DeepMind a companiei Alphabet, precum și Yoshua Bengio și Stuart Russell, nume grele din domeniul inteligenței artificiale.
În scrisoare sunt detaliate potențiale riscuri la adresa societății și civilizației din cauza sistemelor de inteligență artificială ce pot provoca dereglări economice și politice, documentul solicitând dezvoltatorilor de astfel de sisteme să colaboreze cu factorii de decizie politică și autoritățile de reglementare.
„Scrisoarea nu este perfectă, dar spiritul este corect: trebuie să încetinim până când vom înțelege mai bine implicațiile”, a declarat Gary Marcus, profesor emerit la Universitatea din New York, semnatar al scrisorii.
„Ele pot provoca daune serioase… marii jucători devin din ce în ce mai secretoși cu privire la ceea ce întreprind, ceea ce face ca societății să-i fie greu să se apere împotriva oricăror efecte negative care s-ar putea materializa”, a adăugat el.
Comentează pe FACEBOOK