Dana 19. lipnja Ethereum block explorer i analitička platforma Etherscan lansirali su novi alat, nazvan “Code Reader”, koji koristi umjetnu inteligenciju za dohvaćanje i tumačenje izvornog koda određene adrese ugovora. Nakon korisničkog brzog unosa, Code Reader generira odgovor putem OpenAI-jevog velikog jezičnog modela (LLM), pružajući uvid u datoteke izvornog koda ugovora. Etherscan programeri su napisali:
“Za korištenje alata potreban vam je važeći OpenAI API ključ i dovoljna ograničenja upotrebe OpenAI-ja. Ovaj alat ne pohranjuje vaše API ključeve.”
Slučajevi korištenja za Code Reader uključuju dobivanje dubljeg uvida u kod ugovora putem objašnjenja generiranih AI-jem, dobivanje sveobuhvatnih popisa funkcija pametnih ugovora povezanih s Ethereum podacima i razumijevanje načina na koji je temeljni ugovor u interakciji s decentraliziranim aplikacijama (dApps). “Nakon što se datoteke ugovora dohvate, možete odabrati određenu datoteku izvornog koda za čitanje. Dodatno, možete modificirati izvorni kod izravno unutar korisničkog sučelja prije nego što ga podijelite s AI”, napisali su programeri.
Usred procvata AI, neki su stručnjaci upozorili na izvedivost trenutnih modela AI. Prema nedavnom izvješću koje je objavila singapurska tvrtka rizičnog kapitala Foresight Ventures, “resursi računalne snage bit će sljedeće veliko bojno polje u narednom desetljeću.” Ipak, unatoč sve većoj potražnji za obukom velikih AI modela u decentraliziranim mrežama distribuirane računalne snage, istraživači kažu da se trenutačni prototipovi suočavaju sa značajnim ograničenjima kao što su složena sinkronizacija podataka, optimizacija mreže, privatnost podataka i sigurnosni problemi.
U jednom primjeru, istraživači Foresighta primijetili su da bi obuka velikog modela sa 175 milijardi parametara s prikazom s pomičnim zarezom s jednom preciznošću zahtijevala oko 700 gigabajta. Međutim, distribuirana obuka zahtijeva da se ti parametri često prenose i ažuriraju između računalnih čvorova. U slučaju 100 računalnih čvorova i svakog čvora koji treba ažurirati sve parametre na svakom jediničnom koraku, model bi zahtijevao prijenos od 70 terabajta podataka u sekundi, daleko premašujući kapacitet većine mreža. Istraživači su saželi:
“U većini scenarija, mali modeli umjetne inteligencije još uvijek su izvediviji izbor i ne treba ih zanemariti prerano u plimi FOMO-a na velikim modelima.”