Künstliche Intelligenz und Algorithmen. Gesellschaftliche Risiken
Autor: | Patrick Böyer |
---|---|
EAN: | 9783346880826 |
eBook Format: | |
Sprache: | Deutsch |
Produktart: | eBook |
Veröffentlichungsdatum: | 30.05.2023 |
Kategorie: | |
Schlagworte: | Algorithmen Bias Blackbox Digitalisierung Fairness Freiheit Gesellschaftliche Risiken Intelligenz Kontingenz Kybernetik Künstliche Intelligenz Künstliche neuronale Netze Pluralität Rekursivität Sing Soziale Probleme Technik Vertrauen |
18,99 €*
Versandkostenfrei
Die Verfügbarkeit wird nach ihrer Bestellung bei uns geprüft.
Bücher sind in der Regel innerhalb von 1-2 Werktagen abholbereit.
Bachelorarbeit aus dem Jahr 2023 im Fachbereich Soziologie - Wissen und Information, Note: 1,3, Westfälische Wilhelms-Universität Münster (Institut für Soziologie), Sprache: Deutsch, Abstract: Diese Bachelorarbeit beschäftigt sich mit dem Einsatz von Algorithmen in Verbindung mit Künstlicher Intelligenz und untersucht die davon ausgehenden gesellschaftlichen Risiken im Zeitalter der Digitalisierung. Die gesellschaftlichen Risiken, wie sie in dieser Arbeit identifiziert werden, leiten sich durch die Analyse sozialer Probleme ab. Es werden technische Details zu Algorithmen und Künstlicher Intelligenz beschrieben und deren folgenreicher Einsatz. Die Wirkung von Algorithmen wird zusätzlich durch die weitestgehend philosophischen Konzepte der Rekursivität und Kontingenz verdeutlicht. Als Ergebnis werden in dieser Arbeit das Vertrauensproblem, Verantwortungsproblem, Fairnessproblem, Bias-Problem, Blackbox-Problem und Kommunikationsproblem identifiziert. Aus dem Blackbox- und Kommunikationsproblem ergeben sich Verluste von Freiheiten und Kontrollmöglichkeiten für Menschen. Die Bias-, Verantwortungs-, Fairness- und Vertrauensprobleme erzeugen Unrechtmäßigkeiten und stören das Gerechtigkeitsempfinden von Menschen. Ein weiterer Aspekt ist das Nichtwissen, welches in vielen dieser Problemfelder hineinwirkt, diese verstärkt, bedingt oder auslöst und im Allgemeinen einen sicheren Umgang beeinträchtigt. Das Ergebnis bedeutet, dass erzeugte gesellschaftliche Risiken durch den Einsatz von KI und Algorithmen nicht ausreichend beobachtet und kontrolliert werden. Auch sind keine übergeordneten Instanzen oder Ordnungsprinzipien erkennbar und Menschen kennen die Risikoquelle nur bedingt. Des Weiteren ist ersichtlich, dass es einer ausgewogenen, transnationalen, offenen Debatte bedarf und sich die KI-Sicherheitsforschung weiter etablieren muss. Aufklärungsvorhaben, transparente Forschung und eine offene Diskussionskultur sind passende Elemente. Ein weiteres Element ergibt sich durch die Möglichkeit zur Erarbeitung von Lösungswegen für die identifizierten technischen Probleme bzw. Phänomene. Diese können entkräftet, kontrolliert oder sogar eliminiert werden. Generell gilt es die Sichtweise zu stärken, dass KI und Algorithmen lediglich Instrumente sind und Menschen diese auch nur als solche begreifen sollten. Das bedeutet auch, dass Menschen sich der Chancen und Risiken bewusst sein sollten, die mit der Nutzung eines solchen Instrumentes einhergehen.