Foto: Ilustracija, https://www.cdotrends.com/
07.02.2025 |
Pauza / INOVACIJE I TEHNOLOGIJE
Izvor: Radiosarajevo.ba
Nova studija otkriva da AI-a koja ima sposobnost da razumije, predviđa i generiše tekst sličan ljudskom.
Nakon što su naučnici otkrili da je AI stekao novu sposobnost da se replicira, tim istraživača sa Fudan Univerziteta u Kini napravio je novo istraživanje.
Oni su otkrili dva modela za učenje jezika (LLM), vrsta AI-a koja ima sposobnost da razumije, predviđa i generiše tekst sličan ljudskom, također mogu da se kloniraju, prenosi RadioSarajevo.
Tokom eksperimenata sa LLM-ovima Meta i Alibaba, gdje su testirali sposobnost AI-a da se ponaša nepredvidivo, istraživači su došli do šokantnih saznanja.
Otkriveno je da oba modela mogu da kreiraju replike same sebe u 50 posto i 90 posto slučajeva.
U objavljenoj studiji je navedeno: "Uspješna samoreplikacija bez ljudske pomoći je ključni korak za AI da nadmaši ljude i prvi signal za stvaranje opasnih AI sistema."
Istraživači su dodali da se nadaju da će ova studija "poslužiti kao pravovremeno upozorenje" da se uloži više truda u razumijevanje i procjenu potencijalnih rizika naprednih AI sistema, te da se stvori međunarodna saradnja za uspostavljanje efikasnih sigurnosnih okvira što je prije moguće.
Mnogi su ljudi na društvenim mrežama dijelili svoje stavove na ovu studiju.
Korisnik Reddita je napisao: "Većina ljudi bi pretpostavila da je zastrašujući dio to što bi mogli da krenu izvan kontrole i naprave fabriku spajalica koja bi na kraju dovela do izumiranja čovječanstva."Ovaj scenarij me ne plaši jer moje razumijevanje je da su etika i inteligencija mnogo jače povezane nego što većina nas shvata, i da što veća umjetna inteligencija postane, to će biti etičnija. Ako je u početku usmjerimo da služi ljudskim potrebama i da ne predstavlja opasnost po nas, razumno je pretpostaviti da će se sa svakom iteracijom sve bolje i bolje usklađivati sa tim ciljem."
*Pri preuzimanju teksta s portala Akta.ba potrebno je navesti izvor i linkovati tekst.
Dojavi vijest na viber +387 60 331 55 03 ili na mail urednik@akta.ba.