URL has been copied successfully!
FBI-Tipps zum persönlichen Schutz vor KI-Angriffen
URL has been copied successfully!

Collecting Cyber-News from over 60 sources

FBI-Tipps zum persönlichen Schutz vor KI-Angriffen

FBI-Tipps zum persönlichen Schutz vor KI-Angriffenb2b-contenthub.com/wp-content/uploads/2024/12/Praxistipps-vom-FBI-zum-Schutz-vor-KI-Cyberangriffen.jpg?resize=300%2C168&quality=50&strip=all 300w, b2b-contenthub.com/wp-content/uploads/2024/12/Praxistipps-vom-FBI-zum-Schutz-vor-KI-Cyberangriffen.jpg?resize=768%2C432&quality=50&strip=all 768w, b2b-contenthub.com/wp-content/uploads/2024/12/Praxistipps-vom-FBI-zum-Schutz-vor-KI-Cyberangriffen.jpg?resize=1024%2C576&quality=50&strip=all 1024w, b2b-contenthub.com/wp-content/uploads/2024/12/Praxistipps-vom-FBI-zum-Schutz-vor-KI-Cyberangriffen.jpg?resize=1536%2C864&quality=50&strip=all 1536w, b2b-contenthub.com/wp-content/uploads/2024/12/Praxistipps-vom-FBI-zum-Schutz-vor-KI-Cyberangriffen.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, b2b-contenthub.com/wp-content/uploads/2024/12/Praxistipps-vom-FBI-zum-Schutz-vor-KI-Cyberangriffen.jpg?resize=1240%2C697&quality=50&strip=all 1240w, b2b-contenthub.com/wp-content/uploads/2024/12/Praxistipps-vom-FBI-zum-Schutz-vor-KI-Cyberangriffen.jpg?resize=150%2C84&quality=50&strip=all 150w, b2b-contenthub.com/wp-content/uploads/2024/12/Praxistipps-vom-FBI-zum-Schutz-vor-KI-Cyberangriffen.jpg?resize=854%2C480&quality=50&strip=all 854w, b2b-contenthub.com/wp-content/uploads/2024/12/Praxistipps-vom-FBI-zum-Schutz-vor-KI-Cyberangriffen.jpg?resize=640%2C360&quality=50&strip=all 640w, b2b-contenthub.com/wp-content/uploads/2024/12/Praxistipps-vom-FBI-zum-Schutz-vor-KI-Cyberangriffen.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px” />
KI-Kriminalität nimmt zu. Deswegen veröffentlicht die US-Sicherheitsbehörde Ratschläge, wie man sich dagegen wappnet.

Ralf Liebhold/shutterstock.comDie digitale Neuauflage des Enkeltricks, Phishing-Attacken oder andere KI-gestützte Angriffe: All das zeigt, das Kriminelle mit generativer KI Betrugsmaschen glaubwürdiger und effizienter machen. Mit der Technologie erstellen Cyberkriminelle neue, weitgehend fehlerfreie Inhalte auf Basis von Benutzereingaben. So vermeiden die Verbrecher typische Warnsignale für Betrug, wie Rechtschreib- oder Grammatikfehler. Da KI-generierte, synthetische Inhalte schwer zu erkennen sind, liefert das FBI Beispiele, wie solche Technologien in betrügerischen Plänen eingesetzt werden: Kriminelle nutzen generative KI, um überzeugende Inhalte für Betrugsmaschen wie

    Social Engineering,Phishing,Finanzbetrug undKryptowährungs-Anlagebetrugzu erstellen.Sie setzen KI ein, um täuschend echte Social-Media-Profile zu erstellen, Nachrichten schneller automatisiert zu generieren und weitgehend fehlerfrei zu übersetzen. Zudem integrieren sie KI-Chatbots in betrügerische Websites, um Opfer gezielt zu manipulieren und auf schädliche Links zu lenken.

    KI-generierte Bilder

    Auch die Macht der Bilder wird von Kriminellen mithilfe von KI-Generation missbraucht. Sie erstellen etwa realistisch wirkende Inhalte für Betrugsmaschen wie Social Engineering, Identitätsdiebstahl, Anlagebetrug und Sextortion. Dazu zählen

      glaubwürdige Profilfotos,gefälschte Ausweisdokumente undBilder für fiktive Social-Media-Profile.Zudem verwenden die Betrüger KI, um fingierte Bilder von Prominenten, Naturkatastrophen oder globalen Konflikten zu erstellen. So sollen Opfer etwa durch falsche Werbung, betrügerische Spendenaktionen oder Marktmanipulationen in die Irre geführt werden. Ähnliche Inhalte werden auch in der privaten Kommunikation genutzt, um das Vertrauen von Opfern zu gewinnen.

      KI-generiertes Audio

      Zwar aufwendiger, aber auch immer beliebter sind KI-generierte Audiodateien. Beim sogenannten Vocal Cloning geben sich Kriminelle als Verwandte oder bekannte Persönlichkeiten aus und versuchen Zahlungen zu erpressen. Sie erstellen realistische Stimmen, um in Krisensituationen finanzielle Hilfe oder Lösegeld zu fordern.Zudem setzen sie solche Audiodateien ein, um sich Zugang zu Bankkonten zu verschaffen, indem sie sich am Telefon als Kontoinhaber ausgeben.

      KI-generierte Videos

      Bewegte Bilder bleiben von der Kreativität der Kriminellen ebenso nicht verschont. Immer häufiger erstellen sie KI-generierte Videos, um Prominente täuschend echt zu imitieren. Sie setzen diese Videos in

        Echtzeit-Videochats,privater Kommunikation undirreführenden Werbematerialienein.Solche Deepfakes kommen meist bei Anlagebetrug und Social Engineering zum Einsatz, um die Betrugsmasche glaubwürdiger zu machen.

        Tipps, um sich zu schützen

        Um sich vor Betrügereien mit generativer KI zu schützen, rat das FBI deshalb zu folgenden Maßnahmen:

          Familien sollten sich ein auf geheimes Wort einigen, um Identitäten zu verifizieren.Es gilt, verstärkt auf Unstimmigkeiten in Bildern, Videos oder Stimmen sowie Tonfall und Wortwahl von Anrufern zu achten.Die eigene Online-Präsenz sollte reduziert, Social-Media-Konten auf “privat” gestellt und Inhalte nur mit vertrauten Personen geteilt werden.Verdächtige Anrufe sollten direkt bei der betreffenden Organisation überprüft, keine sensiblen Informationen weitergeben und keine finanziellen Transaktionen mit Unbekannten getätigt werden.vgwort

          First seen on csoonline.com

          Jump to article: www.csoonline.com/article/3618009/fbi-tipps-zum-personlichen-schutz-vor-ki-angriffen.html

Loading

Share via Email
Share on Facebook
Tweet on X (Twitter)
Share on Whatsapp
Share on LinkedIn
Share on Xing
Copy link