Zum Inhalt

DigiCult

Digitale Intelligenz für die Untersuchung von sektenartigen Strukturen und verschwörungsideologischen Narrativen

Programm / Ausschreibung KIRAS, Kooperative F&E-Projekte, KIRAS-Kybernet-Pass CS Kooperative F&E Projekte (CS KFE_2024) Status laufend
Projektstart 01.02.2026 Projektende 31.01.2028
Zeitraum 2026 - 2028 Projektlaufzeit 24 Monate
Projektförderung € 561.002
Keywords Narrative, Knowledge Management, Language Analytics, Data Science, Artificial Intelligence

Projektbeschreibung

Das Projekt DigiCult beschäftigt sich mit der Analyse von sektenähnlicher und verschwörungsideologischer Narrative im digitalen Raum. Der rasante Wandel in der Landschaft dieser Gruppen – weg von klar definierten, hierarchischen Strukturen hin zu einer Vielzahl flexibler, oft kommerziell ausgerichteter Netzwerke – stellt eine wachsende Herausforderung für Beratung und Prävention dar. Digitale Plattformen ermöglichen nicht nur die schnelle Verbreitung manipulativer Inhalte, sondern erschweren auch das Erkennen und Verlassen solcher Gemeinschaften. Gleichzeitig zeigen sich erhebliche gesellschaftliche Risiken, etwa durch die Ablehnung staatlicher Institutionen, die soziale Isolation von Betroffenen und die gezielte Einflussnahme auf Kinder und Jugendliche. Betroffene können sich oft nur schwer lösen, da die dauerhafte digitale Präsenz und der stete Online-Austausch ein Verlassen der Gruppe erheblich erschweren. Inhalte verbreiten sich zunehmend über Homepages, YouTube-Videos und soziale Netzwerke. Während zur Dokumentation früher vor allem Bücher und Flyer ausgewertet wurden, verlagert sich heute ein Großteil der Aktivitäten in den digitalen Raum.

Um diesen Entwicklungen adäquat zu begegnen, werden im Rahmen des Projekts DigiCult Methoden zur strukturierten Analyse und Kategorisierung von Gruppierungen und Ideologien entwickelt, um fundierte Einschätzungen und Beratungsangebote zu unterstützen, während sie gleichzeitig als Instrument zur kontinuierlichen Dokumentation neuer Entwicklungen dient.
Mithilfe von KI-Methoden und wissensbasierter Systeme soll ein Ansatz geschaffen werden, der sowohl eine Analyse als auch eine nachvollziehbare Darstellung der Erkenntnisse ermöglicht. Ein besonderer Schwerpunkt liegt auf der Entwicklung erklärbarer KI-Ansätze (XAI), um die Transparenz und ethische Nachvollziehbarkeit automatisierter Bewertungen zu gewährleisten. Darüber hinaus werden rechtliche und ethische Rahmenbedingungen von Anfang an in die Entwicklung integriert, um sicherzustellen, dass das System sowohl datenschutzkonform als auch gesellschaftlich verantwortungsvoll einsetzbar ist.

Abstract

The DigiCult project focuses on the analysis of cult-like and conspiracy-theoretical narratives in the digital space. The rapid evolution of these groups - from clearly defined, hierarchical structures to a multitude of flexible, often commercially oriented networks - poses an increasing challenge for counseling and prevention. Digital platforms not only enable the swift dissemination of manipulative content, but also make it more difficult to identify and exit such communities. At the same time, significant societal risks emerge, such as the rejection of state institutions, the social isolation of affected individuals, and targeted influence on children and adolescents. Those affected often find it hard to break away, as the constant digital presence and continuous online interaction make leaving the group exceedingly difficult. Content is increasingly spread through websites, YouTube videos, and social networks. Whereas documentation in the past relied primarily on the analysis of books and flyers, today a large part of these activities has shifted to the digital realm.
To adequately address these developments, the DigiCult project is developing methods for the structured analysis and categorization of groups and ideologies in order to support well-founded assessments and counseling services, while simultaneously serving as a tool for the continuous documentation of new developments. Utilizing AI methods and knowledge-based systems, the project aims to create an approach that enables both analysis and a comprehensible presentation of the findings. A particular focus is placed on the development of explainable AI approaches (XAI) to ensure transparency and the ethical traceability of automated evaluations. Furthermore, legal and ethical frameworks are integrated into the development process from the outset to ensure that the system is both compliant with data protection regulations and societally responsible in its application.