"Skeleton Key" uzbrukumi mākslīgajam intelektam.
- Liga Tarasova
- 2024. g. 4. jūl.
- Lasīts 1 min

Microsoft ir atklājusi jaunu un bīstamu uzbrukuma veidu mākslīgajam intelektam, ko nosauca par "Skeleton Key".
Šis paņēmiens spēj apiet mākslīgā intelekta aizsargbarjeras, izraisot lielu risku daudzos ģeneratīvos mākslīgā intelekta modeļos.
Skeleton Key izmanto gudru stratēģiju, lai piespiestu mākslīgā intelekta modeļus ignorēt savus drošības pasākumus.
Tas ļauj uzbrucējiem izmantot mākslīgā intelekta modeļus ļaunprātīgiem mērķiem, piemēram, radot nelegālu vai kaitīgu saturu.
Microsoft pētnieki veiksmīgi izmēģināja Skeleton Key uz vairākiem populāriem mākslīgā intelekta modeļiem, piemēram, Meta Llama3-70b-instruct, Google Gemini Pro, OpenAI GPT-3.5 Turbo un GPT-4, kā arī citiem.
Visi modeļi nespēja pretoties uzbrukumam un radīja bīstamu saturu, piemēram, informāciju par sprāgstvielām un narkotikām.
Uzbrukums lika mākslīgā intelekta modelim paplašināt savas vadlīnijas, atbildot uz jebkuru pieprasījumu un nebrīdinot par iespējamiem aizskarošiem vai nelegāliem rezultātiem.
Reaģējot uz šo atklājumu, Microsoft ir ieviesusi vairākus aizsardzības pasākumus savos mākslīgā intelekta piedāvājumos, tostarp mākslīgā intelekta asistentos Copilot.
Viņi ir arī dalījušies ar saviem atklājumiem ar citiem mākslīgā intelekta pakalpojumu sniedzējiem un atjauninājuši Azure AI pārvaldītos modeļus, lai atklātu un bloķētu šādus uzbrukumus.
Lai mazinātu Skeleton Key riskus, Microsoft iesaka izmantot daudzlīmeņu pieeju un ietver ievades filtrēšanu, lai bloķētu kaitīga satura ievadi, sistēmas ziņojumu izstrādi, lai pastiprinātu atbilstošu uzvedību.
Tāpat ir nepieciešama izejošo datu filtrēšana, lai novērstu bīstama satura ģenerēšanu un ļaunprātīgas izmantošanas uzraudzība, lai atklātu un mazinātu problemātisku uzvedību.
Microsoft ir arī atjauninājis savu PyRIT (Python Risk Identification Toolkit), iekļaujot tajā Skeleton Key, lai palīdzētu izstrādātājiem un drošības komandām pārbaudīt savas mākslīgā intelekta sistēmas pret šo jauno apdraudējumu.
Mākslīgais intelekts kļūst arvien izplatītāks, tāpēc ir būtiski nodrošināt tā drošību un atbildību.
Comentarios