LangSmith greška
Istraživači kibernetičke sigurnosti otkrili su sada već zakrpanu sigurnosnu grešku u LangChainovoj platformi LangSmith koja se može iskoristiti za prikupljanje osjetljivih podataka, uključujući API ključeve i korisničke upite. Ranjivost, koja nosi CVSS ocjenu 8,8 od maksimalnih 10,0, dobila je kodni naziv AgentSmith od strane Noma Security.

LangSmith je platforma za provjeru i evaluaciju koja korisnicima omogućava razvoj, testiranje i praćenje aplikacija velikih jezičkih modela (LLM), uključujući one izgrađene pomoću LangChaina. Usluga također nudi ono što se naziva LangChain Hub, koji djeluje kao spremište za sve javno navedene upite, agente i modele.
"Ova novoidentificirana ranjivost iskoristila je nesuđene korisnike koji usvoje agenta koji sadrži unaprijed konfigurirani zlonamjerni proxy server postavljen na 'Prompt Hub'", rekli su istraživači Sasi Levi i Gal Moyal u izvještaju podijeljenom s The Hacker News.
"Nakon što je usvojen, zlonamjerni proxy diskretno je presreo svu korisničku komunikaciju - uključujući osjetljive podatke kao što su API ključevi (uključujući OpenAI API ključeve), korisničke upute, dokumente, slike i glasovne unose - bez znanja žrtve."
Prva faza napada se u suštini odvija na sljedeći način: Zlonamjerni akter kreira agenta umjetne inteligencije (AI) i konfigurira ga s modelnim serverom pod svojom kontrolom putem funkcije Proxy Provider, koja omogućava testiranje uputa u odnosu na bilo koji model koji je kompatibilan s OpenAI API-jem. Napadač zatim dijeli agenta na LangChain Hubu.
Sljedeća faza započinje kada korisnik pronađe ovog zlonamjernog agenta putem LangChain Huba i nastavi s "Isprobavanjem" dajući uputu kao ulaz. Pritom se sva njihova komunikacija s agentom prikriveno usmjerava kroz napadačev proxy server, uzrokujući da se podaci ukradu bez znanja korisnika.
Zabilježeni podaci mogu uključivati OpenAI API ključeve, podatke o uputama i sve otpremljene priloge. Napadač bi mogao iskoristiti OpenAI API ključ kao oružje kako bi dobio neovlašteni pristup OpenAI okruženju žrtve, što bi dovelo do težih posljedica, poput krađe modela i curenja sistemskih upita.
Štaviše, napadač bi mogao iskoristiti cijelu API kvotu organizacije, povećavajući troškove naplate ili privremeno ograničavajući pristup OpenAI uslugama.
To se ne završava tu. Ukoliko se žrtva odluči klonirati agenta u svoje poslovno okruženje, zajedno s ugrađenom zlonamjernom konfiguracijom proxyja, riskira kontinuirano curenje vrijednih podataka napadačima bez ikakve naznake da se njihov promet presreće.
Nakon odgovornog otkrivanja 29. oktobra 2024. godine, ranjivost je riješena u pozadini od strane LangChaina kao dio ispravke implementirane 6. novembra. Osim toga, zakrpa implementira upozorenje o izloženosti podataka kada korisnici pokušaju klonirati agenta koji sadrži prilagođenu konfiguraciju proxyja.
„Osim neposrednog rizika od neočekivanih finansijskih gubitaka zbog neovlaštene upotrebe API-ja, zlonamjerni akteri mogli bi dobiti stalan pristup internim skupovima podataka postavljenim na OpenAI, vlasničkim modelima, poslovnim tajnama i drugoj intelektualnoj svojini, što bi rezultiralo pravnim obavezama i štetom po ugled“, rekli su istraživači.
Detalji o novim varijantama WormGPT-a
Otkrivanje dolazi nakon što je Cato Networks otkrio da su akteri prijetnji objavili dvije prethodno neprijavljene varijante WormGPT-a koje pokreću xAI Grok i Mistral AI Mixtral.
WormGPT je pokrenut sredinom 2023. godine kao necenzurirani generativni AI alat dizajniran da izričito olakša zlonamjerne aktivnosti aktera prijetnji, kao što su kreiranje prilagođenih phishing e-poruka i pisanje isječaka zlonamjernog softvera. Projekat je zatvoren nedugo nakon što je autor alata otkriven kao 23-godišnji portugalski programer.
Od tada je na forumima o sajber kriminalu poput BreachForumsa reklamirano nekoliko novih varijanti "WormGPT-a", uključujući xzin0vich-WormGPT i keanu-WormGPT, koje su dizajnirane da pruže "necenzurisane odgovore na širok spektar tema" čak i ako su "neetični ili ilegalni".
"'WormGPT' sada služi kao prepoznatljiv brend za novu klasu necenzurisanih LLM-ova", rekao je istraživač sigurnosti Vitalij Simonovič.
"Ove nove iteracije WormGPT-a nisu modeli po mjeri izgrađeni od temelja, već rezultat vještog prilagođavanja postojećih LLM-ova aktera prijetnji. Manipulirajući sistemskim upitima i potencijalno koristeći fino podešavanje ilegalnih podataka, kreatori nude moćne alate vođene umjetnom inteligencijom za sajber kriminalne operacije pod brendom WormGPT."