Blog

KulturRaymond Sun

Raymond Sun

Technology Lawyer (Herbert Smith Freehills) & App Developer/ Sydney, Australia 

KI ist ein zweischneidiges Schwert für die Demokratie. Große Sprachmodelle (Large Language Models, LLMs) können dabei helfen, unsere Sichtweisen und politischen Positionen zu kommunizieren sowie politische Argumente schlüssiger und fundierter zu machen (sei es in den Sozialen Medien, in Leserbriefen oder in Kommentaren an Behörden zu Gesetzesvorhaben). Aber natürlich kann die „kreative“ Macht der LLMs auch missbraucht werden. Die Kombination aus voreingenommenen (biased) Empfehlungsalgorithmen und gefälschten politischen Inhalten ist eine große Gefahr für die Demokratie. Um hier Abhilfe zu schaffen, brauchen wir eine Mischung aus technologischen Lösungen (z. B. Anti-Deepfake-Detektoren), regulatorischen Lösungen (z. B. Transparenzverpflichtungen für Algorithmen und Beschränkungen für die politische Nutzung von KI) und kulturellen Veränderungen bzw. Wandel im Bildungsbereich (z. B. Aufklärung der Bürgerinnen und Bürger, nicht jeden Inhalt für bare Münze zu nehmen und politische Inhalte mit größerer Sorgfalt zu prüfen).

EN Original:

AI is a double-edged sword for democracy. On the one hand, traditional analytical tools can be used to analyze data and spot trends in certain issues that would be tough for human policymakers to see, and to help make better decisions about policy. The emergence of large language models (LLMs) has also been a game changer to empower ordinary citizens to participate more in the democratic process. For example, LLMs can be used to help us formulate and express our perspectives and policy position as well as making political arguments more cogent and informed (whether in social media, letters to the editor, or comments to rule-making agencies in response to policy proposals).
 
But obviously, the ‚creative‘ power of LLMs can also be dangerously used to spread misinformation and disinformation, which can undermine trust in democracy. In fact, we’ve already seen concerning deepfake videos of politicians saying or doing things they never actually did. In addition, we’ve also seen AI-powered recommendation algorithms being used to track user activities (e.g. on social media) and target them with political ads that could potentially skew their political views and sway their voting decisions. Indeed, the combination of biased recommendation algorithms and deepfake political content is incredibly dangerous to democracy. To solve this, we need a combination of technological solutions (e.g. anti-deepfake detectors), regulatory solutions (e.g. transparency obligations in algorithms and restrictions around political use of AI) and culture/educational changes (i.e. educating citizens to not take every content at face value and to do more due diligence into any political related content).

Back To Top

human ist das Leitmedium für strategische Entscheider:innen und alle, die mit KI arbeiten und leben werden. Wir stellen den Menschen in den Mittelpunkt. Für eine lebenswerte Zukunft aller.

Folgen Sie unserer Einladung zum Dialog – werden Sie Teil einer spannenden Reise…

Social