|
KI-Note
Diese Schulnote für die Güte der PM wurde in einem automatischen KI-Gutachtenverfahren ermittelt.
1,7
|
BLIX
Dieser Wert gibt an, wie verständlich der Text formuliert ist. Pressetexte sollten unter 30, besser noch unter 20 liegen.
19,4
|
Schuljahre
Dieser Wert gibt an, wie viele Schuljahre jemand benötigt, um den Text leicht zu verstehen (gut für PM: 5-10).
8
|
|
Herausgeber der PM
Bundesamt für Sicherheit in der Informationstechnik
Godesberger Allee 87
53175 Bonn |
Pressekontakt
person Matthias Gärtner
call +49 228-999582-5777 language www.bsi.bund.de |
Link zur Original-PM
|
Fast jede zweite Internetnutzerin und jeder zweite Internetnutzer in Deutschland traut sich laut Cybersicherheitsmonitor zwar zu, KI-generierte Inhalte zu erkennen. Tatsächlich prüft aber nur eine Minderheit solche Inhalte genauer. Darauf haben das Bundesamt für Sicherheit in der Informationstechnik und das Programm Polizeiliche Kriminalprävention der Länder und des Bundes hingewiesen. Die Behörden sehen deshalb ein erhöhtes Risiko, dass Verbraucher auf digitale Betrugsmaschen hereinfallen.
BSI-Präsidentin Claudia Plattner erklärte, KI-generierte Inhalte seien „längst im Alltag von Verbraucherinnen und Verbrauchern angekommen“. Es sei deshalb unverzichtbar zu erkennen, welche Beiträge und Darstellungen im Internet mit Künstlicher Intelligenz erzeugt wurden. Das BSI wolle dazu Orientierung geben und dafür sensibilisieren, „was mit KI möglich ist, wie KI-generierte Inhalte erkannt und welche Maßnahmen ergriffen werden können“.
Nach den Angaben hat rund ein Drittel der Befragten noch keine der gängigen Maßnahmen zur Erkennung von KI-Inhalten genutzt. 40 Prozent haben nach eigener Aussage immerhin schon einmal hinterfragt, ob eine dargestellte Szene realistisch ist. Nur 28 Prozent suchten nach Unstimmigkeiten im Bild, 19 Prozent überprüften die Quelle.
Fast die Hälfte der Internetnutzerinnen und -nutzer in Deutschland fühlt sich zwar in der Lage, KI-generierte Inhalte zu erkennen. Tatsächlich schaut jedoch kaum jemand genauer hin: Nur eine Minderheit hat schon einmal etwa nach Unstimmigkeiten im Bild gesucht oder die Quelle überprüft (28 bzw. 19 Prozent). Der Cybersicherheitsmonitor des Bundesamts für Sicherheit in der Informationstechnik (BSI) und des Programms Polizeiliche Kriminalprävention der Länder und des Bundes (ProPK) zeigt, wie hoch das Risiko ist, Opfer digitaler Betrugsmaschen zu werden.
BSI-Präsidentin Claudia Plattner: „KI-generierte Inhalte sind längst im Alltag von Verbraucherinnen und Verbrauchern angekommen. Um Risiken und Falschinformationen zu identifizieren, ist es daher unverzichtbar, zu erkennen, welche Inhalte, Beiträge und Darstellungen in der Online-Welt KI-generiert sind. Hier setzt der Verbraucherschutz des BSI an: Wir bieten Orientierung und sensibilisieren dafür, was mit KI möglich ist, wie KI-generierte Inhalte erkannt und welche Maßnahmen ergriffen werden können.“
Dr. Stefanie Hinz, Landespolizeipräsidentin und Vorsitzende des ProPK: „Eine Straftat, die wir im Polizeialltag aktuell häufig beobachten, ist der sogenannte Cybertrading-Fraud. Dabei versprechen Kriminelle schnelle Gewinne und hohe Rendite beim Online-Trading. Oft erstellen sie hierfür mithilfe von KI Videos, in denen Prominente für lukrative Anlagemöglichkeiten zu werben scheinen. Wer im Internet auf solche Anlagemöglichkeiten stößt, sollte im ersten Schritt überlegen, ob das Angebot überhaupt realistisch ist – oder zu gut, um wahr zu sein.“
Im Cybersicherheitsmonitor hat rund ein Drittel der Befragten noch keine einzige der gängigen Maßnahmen zur Erkennung von KI-generierten Inhalten ergriffen (32 Prozent). Immerhin: 40 Prozent haben schon einmal überlegt, ob eine dargestellte Szene realistisch ist. Nur 28 Prozent haben nach Unstimmigkeiten, etwa fehlerhaften Schatten oder Gliedmaßen, gesucht. 19 Prozent haben zudem die Seriosität der jeweiligen Quelle recherchiert. Auch das Wissen rund um mögliche Betrugsszenarien ist gering: Nur 38 Prozent halten es für möglich, dass Cyberkriminelle zum Beispiel ein KI-Programm manipulieren, damit dieses sensible Daten weitergibt. Auch dass Kriminelle unsichtbare Anweisungen für KI-Systeme in Dokumente einfügen, halten nur 40 Prozent für denkbar. Tatsächlich sind beide Szenarien technisch möglich.
