Deepfake videókkal próbálnak állásokhoz jutni csalók

2022 / 07 / 02 / Pőcze Balázs
Deepfake videókkal próbálnak állásokhoz jutni csalók
Az FBI figyelmeztetést adott ki: egyre többször fordul elő, hogy bűnözők online állásinterjúkon vesznek részt, ahol deepfake videók segítségével adják ki magukat valaki másnak. A céljuk valószínűleg az lehet, hogy üzleti titkokhoz jussanak hozzá, miután felvették őket.

A Gizmodón olvasható hír szerint több cégtől érkeztek jelentések az amerikai Szövetségi Nyomozóiroda (FBI) internetes bűnügyekkel kapcsolatos panaszközpontjába, melyek arról tanúskodnak, hogy ismeretlenek lopott adatokkal, mások személyazonosságát felvéve, a hangjukat és az arcukat is deepfake technológiákkal utánozva pályáznak állásokra. A pozíciók egy része felhasználók, ügyfelek személyes adataihoz, pénzügyi információkhoz, vállalati adatbázisokhoz és egyéb érzékeny adatokhoz enged hozzáférést, húzza alá az FBI közleménye. A Gizmodo emlékeztet rá, hogy nemrég észak-koreai kormányzati alkalmazottakat kaptak rajta, hogy távolról végezhető informatikai állásokra jelentkeznek. Ők is hamis dokumentumokkal hoztak létre profilokat a munkát kereső szabadúszók számára létrehozott portálokon.

A Rakétán számtalanszor írtunk már a deepfake technológiákról, illetve az általuk létrejövő hamis tartalmakról: első pillantásra ártalmatlan, de aggasztó királyi üdvözletről, kamu arccal előadott tehetségkutató fellépésről, vagy olyan Tom Cruise videókról, amelyek valójában nem Tom Cruise videók. Ezek a megdöbbentően élethű filmek persze nem két gombnyomással jöttek létre, hanem szakemberek ideje és tudása kellett hozzá, hogy ennyire megtévesztőek legyenek. Igaz, a tehetségkutatós klip már élőben jött létre, nem lehetett kockáról kockára korrigálni az algoritmusok tévedéseit. Emellett egyre több az olyan program, amely hétköznapi felhasználóknak segít deepfake-eket létrehozni, például az őseik fotóinak a megmozgatásával.

Az FBI szerint a leggyakrabban az buktatja le a deepfake-ekkel jelentkezőket, ha köhögnek vagy tüsszentenek. A valós időben generált, nem teljesen profi deepfake videók amúgy is gyakran csúsznak, a szájak nem mozognak tökéletes szinkronban az elhangzó szavakkal, de egy-egy ilyen hirtelen gesztust végképp nem tudnak lekövetni. Egyelőre. Valószínűleg a saját szemünk és megérzéseink is egyre gyakrabban fognak becsapni minket ilyen helyzetekben, miközben a mesterséges intelligenciával készült videókat tetten érő mesterséges intelligenciák még közel sem tökéletesek: a pontosságuk valahol harminc és kilencvenhét százalék között van kutatók szerint.

(Borítókép: Unsplash)

Olyan kamuvideó terjed a neten, amiben az ukrán elnök fegyverletételre szólítja fel az ukrán katonákat A deepfake videót ellenséges hekkerek tették közzé az egyik ukrán tévécsatorna oldalán, azóta pedig számtalan más helyen is felbukkant.


Szó szerint faragni lehet a fényt ezzel a nanoeszközzel!
Szó szerint faragni lehet a fényt ezzel a nanoeszközzel!
„Ha a fényt ilyen hatékonyan és dinamikusan tudjuk irányítani, akkor gyakorlatilag bármit megtehetünk vele.”
Hihetetlen, őrület, de élő madarakra is lehet adatot menteni!
Hihetetlen, őrület, de élő madarakra is lehet adatot menteni!
Furán hangzik, pedig igaz.
Ezek is érdekelhetnek
HELLO, EZ ITT A
RAKÉTA
Kövess minket a Facebookon!
A jövő legizgalmasabb cikkeit találod nálunk!
Hírlevél feliratkozás

Ne maradj le a jövőről! Iratkozz fel a hírlevelünkre, és minden héten elküldjük neked a legfrissebb és legérdekesebb híreket a technológia és a tudomány világából.



This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.