4I Banner schmal


KI Pornografie - Illegaler Fotomissbrauch


Ki hat auch seine Schattenseiten. Vor allem seit die Qualität der Bilder und Videos fotorealistisch ist und kaum noch bis gar nicht mehr von Originalen unterschieden werden können. Es gibt sogar schon spezelle Programme zum "digitalen Entkleiden" von Personen.

Es ist möglich ganze Szenen "nur" mit KI zu erstellen. Deshalb auch die Bilder und Videos von Missbräuchen an Kindern oder Frauen, Gewalt usw.
Der Eine oder Andere könnte jetzt zwar sagen, dass dann wenigstens weniger echte Missbräuche stattfinden. Doch das ist falsch.
Problem 1: Woher hat KI die Informationen, was sie darstellen soll? Wie bei Texten aus Originalen. Ki lernt ja und zum Lernen benötigt man "Lehrmaterial / Vorlagen".
Problem 2: Gerade für Mobbing und anderem können pornografische oder normale Nacktbilder erstellt werden, mit den Köpfen oder Gesichtern von Menschen aus normalen Fotos.
Das heisst, dass ich gar keine Nacktbild von der Ex mehr brauche, wenn ich ihr schaden will, sondern nur ein gutes Bild mit dem Kopf darauf, dass ich dann mit KI so um generieren kann, dass es wie echt aussieht und mehr als reicht, jemandem zu schaden.

Positiv: Einige gängige Programme haben für bestimmte Wortkombinationen eine Sperre eingebaut. Ich habe schon bei anderen "normalen Bilderstellungen" erlebt, dass das Programme die Herstellung verweigert hat, weil es in den Prompts Wörtern gefunden hat, die zusammen für so etwas genutzt werden könnten. Es ging darum weder um Kinder noch um Pornografie, aber auch bei Knabe, Krieg, Soldat kann das geschehen. Leider kann man das (mit Kindersoldaten- Bildern getestet), manchmal mit anderen Formulierungen umgehen.
Leider haben aber nicht alle Programme diese Sperre. Bei einem mir bekannten Programm sollten Kinderpornos nicht möglich sein (nicht getestet), aber die Galerie ist voll mit normalen Pornobildern und aktiven Akten. In dem Fall, den ich kenne, kann man es wenigstens so einstellen, dass ich die Bilder nicht ansehen muss, denn die Qualität normaler, selber erstellten Bilder ist gut.

Ganz klar ist aber, dass gerade die, welche verbotene Videos und Fotos erstellen wollen, Wege finden werden und auch zu speziellen Programmen kommen werden. Es gibt sogar darauf spezielaisierte Programme.


WICHTIG: Gerade unter Jugendlichen (wenn auch nicht nur) ist das ein grosses Problem, da Mobbing immer zu oft vorkommt.
Sprechen Sie mit Ihren Kindern,
1. dass sie sich getrauen, sich zu melden wen sie so etwas sehen (z.B. auf das Händiy bekommen) oder sogar selber betroffen sind.
2. Das Ganze ist natürlich strafbar und auch Jugendliche können bestraft werden. Siehe den ersten Link unten!


  • brf.be/national/1762834/
    KI-Nacktbilder: Strafbar und folgenreich
    Sogenannte "Deepfakes" sind Medieninhalte, die zwar täuschend echt wirken, aber mittels Künstlicher Intelligenz erzeugt oder manipuliert worden sind. Eine der Unterkategorien dieser gefakten, sprich gefälschten Inhalte sind dabei die "Deepnudes", also per KI erzeugte Nacktbilder. Ursprünglich wurden dabei vor allem Gesichter zwischen Körpern ausgetauscht. Mittlerweile sind aber viel komplexere Manipulationen möglich, wie Catherine Van de Heyning gegenüber der VRT erklärt. Sie ist nicht nur Expertin für Cyberkriminalität, sondern auch Magistratin bei der Staatsanwaltschaft Antwerpen.
    Auch Minderjährige strafbar
    Die Magistratin weist auch explizit darauf hin, dass die Herstellung von Deepnudes kein bisschen weniger strafbar ist, wenn die Täter Minderjährige sind, so wie es in Spanien passiert ist. In solchen Fällen müsse der Jugendrichter über das Strafmaß entscheiden.
    Anzeige erstatten und Hilfe suchen
    Man beobachte aber auch, dass sich internationale Banden professioneller Cyberkrimineller auf die Technik stürzten, um Menschen zu erpressen und Geld zu fordern.


  • diepresse.com/17703300/wenn-die-ki-nacktbilder-von-maedchen-erstellt

    Wenn die KI Nacktbilder von Mädchen erstellt
    In WhatsApp-Gruppen werden unter minderjährigen Burschen Nacktbilder von Mädchen ausgetauscht. Als der Fall publik wird, geht ein Aufschrei durch Spanien. Denn das jüngste Mädchen ist elf Jahre alt. Doch nicht die Mädchen machten Bilder von sich, das übernahm eine KI.

  • zdf.de/nachrichten/...spanien-schuelerinnen-deepnudes-nacktbilder
    u.a. mit 2 interessaten internen Videos
    Es ist eine absolute Horrorvorstellung, was mehr als 20 Mädchen in Spanien in den letzten Wochen passiert ist: Von ihnen wurden mithilfe von KI-Software Nacktbilder gefälscht und von Mitschülern und Bekannten im Netz verbreitet. Sowohl die Betroffenen als auch diejenigen, die die Bilder erstellt und verbreitet haben, sind minderjährig, einige von ihnen unter 14 Jahren.


  • mimikama.org/ki-erstellung-von-gefaelschten-nacktbildern/

    In einer Oberschule im US-Bundesstaat New Jersey wurde bekannt, dass männliche Schüler mittels einer KI-Software vermeintliche Nacktbilder von Mitschülerinnen erstellten und verbreiteten. Dies führte zu umfangreichen polizeilichen Ermittlungen.
    Digitales Mobbing (hier: Nacktbilder) und der Missbrauch von KI-Technologie.

  • orf.at/stories/3339139/

    Kinder als Opfer von Deepfakes
    Durch künstliche Intelligenz (KI) ist es erschreckend einfach geworden, jedes beliebige Foto in eine realistische Montage zu verwandeln. Dass das besorgniserregende Folgen haben kann, zeigen zahlreiche Berichte weltweit. So werden etwa Kinderfotos, die online gestellt werden, zu Nacktbildern verfälscht. Die Zahl der Betroffenen ist genauso unermesslich wie die Weiten des Internets.

  • 20min.ch/story/diese-ki-macht-dich-auf-fotos-nackt-die-risiken-sind-enorm

    Diese KI macht dich auf Fotos nackt – die Risiken sind enorm
    Seit der KI-Revolution sind Deepfakes immer wieder ein problematisches Thema für die Privatsphäre und den Datenschutz. Der neuste Streich: eine künstliche Intelligenz, die Personen auf Fotos komplett auszieht und nackt anzeigt.

  • heise.de/news/KI-Anwendungen-zur-Entkleidung-von-Fotos-boomen..
    Nackt mit KI: Aus der Porno-Nische zum Online-Geschäftsmodell
    Der Fortschritt bei KI-Technik ermöglicht neue Geschäfte mit Diensten, die Menschen auf Fotos nackt darstellen. Ein Analyse-Unternehmen sieht einen Trend.


  • euractiv.de/section/....-deepfakes-ueberfluten-das-internet-aufgrund-von-gesetzesluecken/

    Nacktbilder: Deepfakes überfluten das Internet aufgrund von Gesetzeslücken
    Nacktbilder, auch von Minderjährigen, treten im Internet immer häufiger auf, da die Methoden zur Erstellung dieser Fotos immer leichter zugänglich sind. Doch die Gesetzgebung hinkt bei der Regulierung solchen Bildmaterialien noch hinterher.
    Deepfakes, ein Begriff, der sich auf visuell täuschend echte Inhalte bezieht, bei denen die Identität der abgebildeten Personen vertauscht oder verändert wird, können zu vielen Zwecken erstellt werden, angefangen bei Entertainment bis hin zur Verbreitung von Desinformationen.

  • heute.at/s/diese-ki-macht-dich-auf-fotos-komplett-nackt
    Die künstliche Intelligenz sorgt immer wieder für Gesprächsstoff rund um Ethik und Privatsphäre. Der Mensch als Operator kann die KI auch missbräuchlich verwenden, so entstehen Modelle, die den Datenschutz komplett ignorieren.


  • genderleicht.de/unerwuenschte-sexyness-was-ki-bilder-apps-mit-frauen-machen/

    Unerwünschte Sexyness: Was KI-Bilder-Apps mit Frauen machen
    Ich habe mir 100 „magische Avatare“ von einer KI-App erstellen lassen. Erwartet habe ich mir besondere Bilder meines Gesichts, mit unterschiedlichen Frisuren, oder Bilder in einer verträumten Landschaft. Doch als die KI-Fotos gekommen sind, war ich total schockiert und musste erst einmal eine Nacht darüber schlafen. Denn die KI-App hat mich zur Wichsvorlage für heiße Männerträume gemacht. Als Blumenfee hatte ich Riesenbrüste, auf anderen Fotos war mein Kopf abgeschnitten und ich steckte in einem heißen Dessous-Outfit, das es so gar nicht geben kann. Am nächsten Tag war ich wütend.

  • fr.de/wirtschaft/gefaelschte-ki-nacktbilder-haben-hochkonjunktur-sie-ru... 
    „Ich fühlte mich eklig und verletzt“, sagte eine Betroffene. Mit dem Hype um KI kursieren immer mehr gefälschte pornografische Bilder und Videos im Internet, die auch sehr junge Mädchen treffen.
    Washington – Als Gabi Belle erfuhr, dass ein Nacktfoto von ihr im Internet kursierte, wurde ihr kalt. Die YouTube-Influencerin hatte nie für das Bild posiert, auf dem sie unbekleidet auf einem Feld stand. Sie wusste, dass es gefälscht sein musste.


Videos


 Unfreiwillig im Porno – Wie Frauen Opfer von künstlicher Intelligenz werden
Als Kate Isaacs das Video anklickte, konnte sie nicht glauben, was sie da sah: sie und ein fremder Mann beim Sex. Ihre ersten Gedanken: Wer ist dieser Mann? Wer filmt das? Und: Verdammt, das Video ist im Internet!
Millionen von Frauen weltweit sind wissentlich oder unwissentlich Opfer von Deepfake-Pornos – pornografischen Inhalten also, die mithilfe von künstlicher Intelligenz erstellt wurden. Das Problem: Aufgrund des rasanten technologischen Fortschritts kann heute jeder, der ein Handy und einige Bilder der Zielperson besitzt, mit frei zugänglichen Apps Deepfake-Pornos erstellen und verbreiten. Der reale Schaden des virtuellen Missbrauchs ist riesig. Rufschädigung, Karriererückschläge, Gewaltandrohungen, Depression, Suizid. Niemand ist sicher. Jede kann es treffen. Und trotzdem ist es fast unmöglich, sich dagegen zu wehren. «NZZ Format» spricht mit Opfern von Deepfake-Pornos, mit AI-Experten, Aktivistinnen, Juristinnen und Produzenten von Deepfake-Pornos.
https://www.srf.ch/play/tv/-/video/-?urn=urn

 

 

Wir benutzen Cookies

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.