Illustration zum Thema Wissensjäger.

Selbsthilfe
3. Mythenjäger

MYTHOS vs. FAKT

Welche der folgenden Aussagen halten Sie für einen Mythos und welche sind Fakt?

  • 1 von 13

    Sexuelle Gewalt gegen Kinder gibt es selten.


    • MYTHOS

      Weltweit werden etwa 18% der Mädchen und 8% der Jungen Opfer sexueller Übergriffe.

  • 2 von 13

    Wenn Kinder NEIN sagen, meinen sie eigentlich JA.


    • MYTHOS


    Nein heißt, NEIN! Dies gilt unabhängig davon, ob das ein Kind oder ein Erwachsener sagt. Wenn ein Kind Nein sagt, haben alle Kinder haben das Recht ernst genommen zu werden. Das gleiche gilt übrigens auch für ein Ja.


  • 3 von 13

    Kein Kind möchte, oder genießt sexuelle Handlungen.


    • FAKT


    Kinder, die Opfer sexueller Übergriffe werden, fragen niemals danach. Sie wollen weder sexuelle Interaktion mit Erwachsenen noch genießen sie diese. Weder der Kleidungsstil, das Auftreten oder das Verhalten eines Kindes erlaubt es einem Erwachsenen, sexuelle Aktivitäten mit einem Kind auszuüben.


  • 4 von 13

    Studien mit verurteilten Straftätern zeigen, dass die meisten sexuellen Straftaten gut geplant sind.


    • FAKT

     

    Erwachsene begehen keine sexuellen Übergriffe, weil sie die Kontrolle verloren haben. Sie können ihre sexuellen Impulse zurückhalten und es liegt in ihrer Verantwortung, dies zu tun.


  • 5 von 13

    Studien zeigen, dass die meisten Sexualstraftäter von Freunden, Kollegen und Persönlichkeitstests als „normal“ angesehen werden.


    • FAKT

     

    Diejenigen, die sexuelle Übergriffe begehen, sind nicht, wie oft behauptet, emotional oder psychisch geschädigt oder instabil.


  • 6 von 13

    Das Opfer kennt den Täter oft nicht.


    • MYTHOS


    Die meisten Opfer kennen ihre Täter. Es können Freunde, Nachbarn, Bekannte oder sogar Mitglieder ihrer eigenen Familie sein.


  • 7 von 13

    Ein Kind, das nie geschlagen wurde oder nie verletzt wurde, kann nicht Opfer sexueller Gewalt sein.


    • MYTHOS


    Fehlende Anzeichen von Verletzungen bedeuten nicht, dass ein Kind nicht Opfer sexueller Übergriffe geworden ist. Häufig droht der Täter mit Gewalt oder anderen Konsequenzen, wodurch das Kind erstarrt und sich nicht wehren kann. Das bedeutet keinesfalls, dass das Kind der sexuellen Interaktion zustimmt. Wenn überhaupt, bedeutet dies, dass das Kind versucht, sich selbst zu schützen. Kinder reagieren genauso wie Erwachsene in kritischen Situationen anders als normal, dies gilt auch für sexuelle Übergriffe. Einige sind offensichtlich geschockt und verärgert, während andere ruhig und kontrolliert wirken können. Das ruhige und kontrollierte Opfer kann genauso traumatisiert sein wie die anderen, kann es aber einfach nicht ausdrücken.


  • 8 von 13

    Der Begriff "Kindesmissbrauchsmaterial" (CSAM) ist eine genauere Bezeichnung als "Kinderpornografie".


    FAKT

     

    Der Begriff „Kindesmissbrauchsmaterial“ ist genauer als „Kinderpornografie“, da er den Missbrauch und die Ausbeutung betont, anstatt Zustimmung zu suggerieren. Im Gegensatz zu Erwachsenenvideos, die auf einvernehmlichen Handlungen beruhen, ist Material mit Kindern grundsätzlich missbräuchlich. Die Verwendung des Begriffs „Pornografie“ verharmlost den Schaden und normalisiert den Missbrauch. Diese Terminologieänderung unterstreicht die Schwere des Themas und lehnt jede Verharmlosung ab.


  • 9 von 13

    Kindesmissbrauchsmaterial (CSAM) besteht nur aus expliziten sexualisierten Szenen.


    MYTHOS

     

    Kindesmissbrauchsmaterial beschränkt sich nicht nur auf explizite sexuelle Inhalte. Es kann von scheinbar gewöhnlichen Fotos ohne offensichtlich erotischen Inhalt bis hin zu expliziten Darstellungen sexueller Handlungen reichen. Das COPINE-Projekt beschreibt eine zehnstufige Schwere-Skala, die auch nicht explizite Bilder umfasst, die von Tätern dennoch sexualisiert werden können. Zusätzlich kann Kindesmissbrauchsmaterial auch schriftliche Geschichten, Audiodateien und digital manipulierte Inhalte umfassen, die unabhängig von ihrer Explizitheit schädlich sein können.


  • 10 von 13

    Das Ansehen von Kindesmissbrauchsmaterial (CSAM) schadet niemandem, da es bereits produziert wurde und keine direkten Opfer hat.


    MYTHOS

     

    Jede Ansicht oder jedes Herunterladen von Kindesmissbrauchsmaterial verstärkt den Schaden und fördert weitere Ausbeutung. Die abgebildeten Personen leben in der Angst, dass ihre Bilder wieder auftauchen und erkannt werden, was anhaltende Angst, Verletzlichkeit und Hilflosigkeit verursacht. Dieses fortwährende Trauma führt zu schweren emotionalen und psychischen Problemen, einschließlich Angstzuständen, Depressionen und Schwierigkeiten in Beziehungen, Arbeit und Bildung.


  • 11 von 13

    Wenn ich nur frei verfügbare Bilder und Videos benutze und nicht für Missbrauchsmaterial bezahle, trage ich zur Produktion von Kindesmissbrauchsmaterial bei und verursache weiteren Schaden.


    FAKT

     

    Das Verwenden von frei verfügbaren Bildern und Videos, auch ohne für Missbrauchsmaterial zu bezahlen, kann dennoch zur Produktion und Verbreitung von Kindesmissbrauchsmaterial (CSAM) beitragen. Durch das Ansehen, Teilen oder Verbreiten solchen Inhalts erhöht man die Nachfrage und verstärkt den Schaden, indem man indirekt die Ausbeutung und den Missbrauch von Kindern unterstützt.


  • 12 von 13

    KI-generierte Materialien können Schaden verursachen.


    FAKT

     

    KI-generierte und manipulierte Inhalte können großen Schaden anrichten, auch wenn sie keine echten Personen zeigen. Zum Beispiel fördern KI-erstellte Inhalte, die Minderjährige sexualisieren, schädliche Einstellungen, selbst wenn sie fiktiv sind. Dies erschwert den Schutz echter Opfer. Zudem haben Behörden Schwierigkeiten, echten Missbrauch von computer-generiertem Missbrauch zu unterscheiden, was den Opferschutz weiter gefährdet. Auch die Veränderung realer Kinderbilder für explizite Inhalte kann zu Belästigung, Erpressung und Traumata führen. Kurz gesagt, diese digitalen Materialien stellen ein erhebliches Risiko für die psychische Gesundheit, Privatsphäre und Sicherheit dar, insbesondere wenn sie Minderjährige ausbeuten oder sexualisieren.


  • 13 von 13

    Während ich Bilder von Kindern auf zugelassenen großen Plattformen wie Google, Instagram, TikTok oder YouTube ansehe, kann ich sicherstellen, dass diese kein CSAM enthalten, da diese Plattformen strenge Gemeinschaftsregeln anwenden und solche Inhalte nicht erlauben.


    MYTHOS

     

    Während Plattformen wie Google, Instagram, TikTok und YouTube strenge Richtlinien haben und Erkennungstools einsetzen, um CSAM zu entfernen, können sie nicht garantieren, dass alle illegalen Inhalte verhindert werden. Erkennungssysteme lassen sich umgehen und das große Volumen an Inhalten macht es schwierig, alles zu erfassen. Es gibt auch Verzögerungen bei der Identifizierung und Entfernung schädlicher Materialien, und einige Inhalte werden möglicherweise nicht korrekt von KI oder Nutzern gemeldet. Daher können diese Plattformen keinen vollständigen Schutz vor CSAM gewährleisten.


Wie haben Sie abgeschnitten? Haben Sie alle Mythen entlarvt?

Viele Menschen glauben an die Wahrhaftigkeit bestimmter Mythen, obwohl diese nicht zutreffen.

Der Glaube an diese Mythen kann dazu führen, dass Menschen eine voreingenommene Sichtweise entwickeln und ihr Verhalten relativieren und normalisieren. Dadurch wird die Verantwortung für sexuelle Übergriffe und die Nutzung von Abbildungen sexueller Übergriffe oft unrechtmäßig verschoben. Bei einem sexuellen Missbrauch oder der Nutzung sexualisierter Abbildungen von Kindern spielen bestimmte Denkmuster eine Rolle – sowohl während als auch nach der Tat.

Um diese Denkmuster besser zu verstehen und zu verändern, hilft das Selbsthilfe Modul „die rosarote Brille“.


Zurück zur Übersicht

Troubled Desire Chat und Selbsthilfe

 

Wir nehmen hier wieder neue Teilnehmer*innen für unsere Studie auf. 

Illustration eines Mobiltelefons.

Selbsttest

Illustration von zwei Sprechblasen.