Innehållsförteckning
Utvecklare fortsätter att släppa produkter med artificiell intelligens (AI) i skrämmande hastighet, vilket gör det svårt för lagstiftare och tillsynsmyndigheter att hålla jämna steg. Medan många utan tvekan är användbara applikationer, utgör andra allvarliga risker för skada när de är i händerna på illvilliga aktörer. Oavsett om de utreder bedragare, utpressare, falska nyheter eller trakasserare, detektiver för allvarliga cyberbedrägerier som Cybertrace måste tillämpa vaksamhet, innovation och framförhållning. Efter att ha utforskat användningen av ChatGPT för skändliga syften, låt oss överväga djupförfalskningar och röstkloning.
Med tanke på den potentiella ekonomiska, anseende och personliga skada som dessa oroande teknologier kan orsaka, Cybertrace känner sig tvungen att varna allmänheten. Våra erfarna utredare ligger ständigt i framkant av den tekniska utvecklingen och bygger innovativa, skräddarsydda verktyg för att fånga cyberbrottslingar. Med expertis inom kriminalteknik för webbplatser, spårning av kryptovalutor och bedrägeriutredningar, Cybertrace undersöker nu också deepfake-bilder, video och ljud för att identifiera de ansvariga. Kontakta vårt team idag att diskutera ditt ärende och få den hjälp du behöver.
Vad är Deepfake-bilder, video och ljud?
Byggd på kraftfulla AI Machine Learning-modeller (ML) är en deepfake en digitalt förfalskad bild, video eller ljud av en person som får dem att se ut som någon annan. Deepfakes producerar skrämmande realistiskt utseende och låter bilder, videor och ljud av händelser som aldrig ägt rum. Deepfakes riktar sig vanligtvis till kändisar, politiker eller offentliga personer, med tidiga exempel som president Obama och påve Franciskus. Detta beror på att tekniken bakom deepfakes fungerar bättre med stora datamängder, det vill säga gott om filmmaterial för att träna modellen. Men med ständiga förbättringar av maskininlärning kan vem som helst bli ett mål. Faktum är att AI-röstkloning nu kan ske baserat på så lite som att du hör dig tala i tre sekunder. Det är därför det blir allt viktigare att skaffa kapacitet att undersöka deepfake bilder, video och ljud. Som alltid, Cybertrace är pionjärer i detta undersökande (cyber)utrymme.
Hur görs Deepfakes?
Intressant nog utnyttjar deepfakes två olika ML-modeller: en skapar falska bilder/video/ljud från tillgänglig data, och en försöker upptäcka dem. När den senare inte längre kan avgöra om en bild/video/ljud är äkta eller falsk, kommer det sannolikt att lura människor också. Detta är kort sagt hur en Generative Adversarial Network (GAN) fungerar. För inte så länge sedan var det förbehållet källarboende hackare och datornördar med kraftfulla speldatorer att producera sådana deepfakes. Nuförtiden kan alla med en bärbar dator och internetanslutning skapa realistiska deepfake-videor gratis på mindre än 30 sekunder. Dessutom kräver AI-röstkloning bara ett ljudklipp på tre sekunder för att få din röst att säga allt som skaparen önskar. Faktum är att en nyligen publicerad Forbes-artikel kallade hela processen 'läskigt lätt', speciellt för dem med dåliga avsikter. Att undersöka deepfake bilder, video och ljud har aldrig varit viktigare.
[google_adsense_shortcode]
Vilka är farorna med Deepfake-bilder, video och ljud?
Det som började som ofarlig underhållning mellan användare urartade snabbt till kodare som skapade ML-algoritmer som överförde kändisansikten till porrfilmer. Som en nyligen genomförd undersökning av ABC 4 hörn visar att porr utan samtycke fortfarande är en av de viktigaste tillämpningarna för deepfakes. Brottslingar använder också röstkloning för att stjäla dina pengar och identitet via telefonbanker eller statliga tjänsteportaler som Centrelink. Lägg till det falska nyheter, vilseledande väljare, otillåtna betalningar, falska alibi, utpressning och terrorism, och du har en berusande cocktail! Inte konstigt att fler och fler experter efterlyser utökade möjligheter för att undersöka djupfalska bilder, video och ljud.
Men utöver skändliga användningar för specifika kriminella aktiviteter, finns det också ett större problem. Deepfakes utgör enorma samhälleliga utmaningar för vår grundläggande förståelse av vad som är verkligt, sant och trovärdigt. Med människors starka benägenhet att tro på våra egna öron och ögon, har video- och ljudbevis stark trovärdighet. Detta är lika sant i brottsbekämpning som det är i val och populärkultur.
Betyder deepfakes att vi inte längre kan lita på våra sinnen? Kommer röstkloning få oss att tro att politiker sa något de aldrig gjorde? Gör det påståenden om "falska nyheter" lättare? Med deepfakes allt svårare att upptäcka, även för detektorverktyg, kommer vi sannolikt att se en försämrad politisk desinformation. I detta klimat har det aldrig varit viktigare att skaffa sig den professionella kapaciteten för att undersöka djupfalska bilder, video och ljud.
Hur använder cyberkriminella Deepfake-bilder, video och ljud?
Naturligtvis har cyberbrottslingar varit snabba med att ta till sig AI och deepfake bilder, video och ljud för att utnyttja, felinformera och manipulera. Mer allmänt inom AI-området oroar sig experter för att terrorister undersöker hur man använder förarlösa fordon som vapen. Dessutom kan fientliga stater försöka störa AI-kontrollerade system, orsaka strömavbrott, trafikstörning eller haverier i livsmedelslogistiken. Dessutom kan illvilliga aktörer använda deepfake bilder, video och ljud för att uppmuntra civila oroligheter och manipulera val. Slutligen, jämfört med traditionella former av brott, är AI-baserad brottslighet (inklusive röstkloning) mycket enklare att dela, upprepa eller sälja. Som ett resultat kan cyberbrottslingar enkelt tillhandahålla "kriminalitetstjänster" mot avgift eller lägga ut de svårare delarna av sin digitala brottslighet på entreprenad. Att undersöka djupfalska bilder, video och ljud har därför blivit en akut fråga för brottsbekämpande och underrättelsemyndigheter över hela världen.
Hur är det med bedragare och bedragare?
Skadliga statliga aktörer, terrorister och brottssyndikat är inte de enda som använder AI. Deepfake bilder, video och ljud har faktiskt också gjort det möjligt för tidigare små bedragare att avsevärt slå upp sin verksamhet. Genom att använda falska bilder och videor kan bedragare nu skapa falska konton på dejtingappar för att begå romantikbedrägerier. På samma sätt kan de skapa falska videor av vd:ar eller kändisar som stöder bedrägliga investeringar i kryptovaluta. Bedragare använder dessa falska rekommendationer för att manipulera intet ont anande offer och stjäla deras surt förvärvade pengar. Dessutom kan bedragare enkelt skapa bilder av falska produkter, tjänster eller produktrecensioner för att lura offer via bedrägerier med bilförsäljning. Sammantaget finns det många anledningar till att prioritera att undersöka djupfalska bilder, video och ljud, inklusive röstkloning.
Är röstkloning ett problem?
Som nämnts tidigare är röstkloning kapabla att återskapa en persons röst efter bara tre sekunders lyssnande på personens talan. Oroväckande nog kommer detta vid en tidpunkt då banker och statliga myndigheter i allt högre grad använder röstbiometri för att autentisera klienttelefonsamtal. I slutändan betyder detta att bedragare kan använda AI för att snabbt och övertygande replikera en viktig del av din personliga identitet. Som med alla deras andra knep är deras slutmål att komma åt dina personliga uppgifter och pengar. Dessutom kan bedragare också använda röstkloning för att utge sig för att vara en vän eller familjemedlem i nöd och i behov av pengar. I grund och botten en mer sofistikerad version av "Hej mamma" sms-bedrägeri, bedragare manipulerar offrens familjära kärlek och skydd. Det är först när bedragare har tömt sina bankkonton som offren inser att det inte finns någon familjemedlem i problem. Tyvärr ser vi ökande fall och varningar om AI-förbättrade familjebedrägerier.
Vilka andra hot finns det?
Tyvärr ökar röstkloning också kvaliteten och trovärdigheten för massbedrägerier via automatiserade telefonmeddelanden, aka "robo-bedrägerier". De flesta mottagare av olycksbådande meddelanden från skattekontor, telekommunikationsleverantörer eller andra statliga/företagsenheter kunde vanligtvis säga att de var falska. Men med förbättringar av AI-röst och skriptkvalitet kommer det att bli svårare att skilja riktiga meddelanden från falska. Slutligen använder bedragare AI för att skapa falska kompromissande "bevis" för att utpressa mål. Av dessa anledningar, Cybertrace anser att det blir allt viktigare att undersöka deepfake bilder, video eller ljud.
Vad kan vi göra för att skydda oss mot Deepfake-bilder, video och ljud?
I en digital värld som alltmer är full av djupfalska bilder, video och ljud måste vi skydda oss själva. Lyckligtvis finns det flera sätt på vilket vi kan göra detta. För det första, i ett katt-och-råtta-lopp med deepfake-generatorer, gillar teknikföretag Intel och OpenAI arbetar med verktyg för deepfake-detektering. Även om dessa förhoppningsvis kommer att bli tillräckligt sofistikerade för att hålla jämna steg med deepfakes, är de inte heller hundra procent tillförlitliga. Följaktligen är det viktigt att vi förlitar oss på gammaldags kritiskt tänkande och mediakunnighet genom att fråga: vem gjorde videon? Har det bekräftats av andra medier? Vad har ämnet mer sagt? Kort sagt, vi måste alla ta del i att undersöka deepfake bilder, video och ljud.
Ett bra exempel på hur man proaktivt främjar denna kapacitet kommer från det nordiska landet Finland. Inför en samlad desinformationskampanj från grannlandet Ryssland, tog den in globala experter för att hjälpa till att utforma effektiva motåtgärder. Genom att kombinera faktagranskning med kritiskt tänkande och väljarkunnighet har Finland odlat ett robust medborgarskap som är mindre benäget att bli manipulerat. Detta representerar ett kraftfullt resultat och ett som kan replikeras i andra länder. Likaså ger komedi och satir effektiva vägar för att utbilda allmänheten om farorna med deepfakes. Ett bra exempel på detta är komikern Jordan Steeles berömd Obama-video. Oavsett metod spelar utbildning en avgörande roll i samhället som undersöker deepfake, bilder, video och ljud, inklusive röstkloning. Men vad händer om bedragare eller utpressare kom förbi vårt försvar?
Hur kan Cybertrace Hjälp mig?
Ibland kan beslutsamma bedragare ta sig förbi även de mest vaksamma försvar. Det är då du behöver lite seriös hjälp från din sida! Anta att bedragare lurade ut dig på dina surt förvärvade pengar genom att utge sig för dina barnbarn, potentiella romantiska partners eller kändisar. Alternativt kan någon distribuera djupfalska bilder eller videor på dig för att trakassera eller utpressa dig. Lyckligtvis, Cybertraces team av erfarna utredare kan hjälpa dig att komma till botten med vem som är ansvarig. Oavsett om det är det spåra kryptovaluta över blockkedjan, rättsmedicinskt analysera webbplatser för att se vem som är värd för dem, eller noggrant kamma igenom profiler på sociala medier För att identifiera brottslingar kan vi hjälpa till med att undersöka djupfalska bilder, video och ljud, inklusive röstkloning. Ta reda på vem som ligger bakom bluffen, utpressningen eller trakasserierna, så att du kan gå till polisen eller dina advokater. Cybertrace har resurserna, kapaciteten och engagemanget för att få jobbet gjort. Kontakt våra erfarna utredare idag.
Det här inlägget reviderades för större läsbarhet och precision den 27 november 2024.
