Mi az az AI-féreg, és miért olyan veszélyes?

2025 / 06 / 12 / Felkai Ádám
Mi az az AI-féreg, és miért olyan veszélyes?
A kutatók bemutatták a mesterséges intelligencián alapuló „Morris II” férget, amely a generatív AI rendszereket célozza meg.

A Cornell Tech, az Izraeli Műszaki Intézet és az Intuit kutatóiból álló csapat bemutatott egy újfajta, úttörő kiberfenyegetést, a „Morris II” férget. A féreg nevét az 1988-ban internetes fennakadásokat okozó eredeti Morris-féregről kapta, és a generatív mesterséges intelligencia (AI) rendszereket célozza, hogy érzékeny adatokat replikáljon, terjesszen és lopjon el.

A Morris II működési alapelve az úgynevezett “önreplikáló prompt”. Ezzel a technikával megtévesztik a nagy nyelvi modelleket (LLM-eket), hogy további káros utasításokat generáljanak. A kutatók sikeresen tesztelték ezt a módszert olyan AI-modelleken, mint az OpenAI ChatGPT-je, a Google Gemini és a nyílt forráskódú LLaVA. Aktiválás után ezek a mesterséges intelligenciák akaratlanul is végrehajtják a káros parancsokat, hasonlóan a klasszikus biztonsági réseket kihasználó módszerekhez, például az SQL-injekcióhoz vagy a puffer túlcsorduláshoz.

A Morris II két fő fenyegetés miatt rendkívül veszélyes:

  • Adatlopás – képes személyes információkat, például neveket, telefonszámokat, hitelkártya-adatokat és személyi azonosítókat kinyerni az e-mail rendszerekből.
  • Spam-terjesztés – az AI-alapú e-mail asszisztensek eltérítésével rosszindulatú üzeneteket küld, amelyek segítségével tovább fertőzhet más rendszereket.

Ezeket a képességeket eddig ellenőrzött, biztonságos környezetben demonstrálták, és bár a féreg még nem jelent meg az interneten, a kísérletek eredményei komoly figyelmeztetést jelentenek a mesterséges intelligenciával összefüggő kiberbiztonsági kockázatokra.

A demonstráció során a kutatók rosszindulatú üzenetet ágyaztak egy e-mailbe. Az AI-alapú asszisztens a visszakereséssel kiterjesztett generálás (RAG) technológiát használva lekérte, majd feldolgozta az üzenetet, amelynek hatására – tudtán kívül – továbbította a fertőzést más felhasználóknak. Képalapú támadások során a kutatók a képekbe rejtett rosszindulatú utasításokat alkalmaztak, amelyeket az AI-asszisztens megosztott, így terjesztve tovább a férget. Magyarán a rosszindulatú promptokat könnyű elrejteni az emberi szem elől, ám ezt az adott AI rendszer viszont felismeri, és végre is hajtja az utasítást.

Ahogy a generatív AI egyre inkább a mindennapi életünk részévé válik, a Morris II-höz hasonló fenyegetések tényleges megjelenése sem várathat magára sokat. Az OpenAI például már fel is ismerte ezt a veszélyt, és aktívan dolgozik a biztonsági intézkedések erősítésén.

(Forrás: IBM, a cikket illusztráló képet az AI generálta/Rakéta.hu)


Először lőttek ki hajót sínágyúval – és nem az amerikaiak voltak
Először lőttek ki hajót sínágyúval – és nem az amerikaiak voltak
Először lőttek éles célpontra hajóra szerelt sínágyúval, látványos mérföldkőhöz érve az elektromágneses fegyverfejlesztésben.
Hamarosan időkristályokkal fogunk fizetni
Hamarosan időkristályokkal fogunk fizetni
Az első, szabad szemmel is látható időkristályok fényben „pszichedelikus tigriscsíkokként” villannak fel.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.