Journal: Handelsblatt  Responsible AI - Transparenz, Bias, und Verantwortung in der KI

Journal: Handelsblatt Responsible AI – Transparenz, Bias, und Verantwortung in der KI

Title: Responsible AI: Transparenz, Bias, und Verantwortung in der KI
Authors:  Ulli Waltinger und Benno Blumoser
Pub/Conf:  Handelsblatt Journal Future IT, 17. Dezember 2019, Pages 8-10
Insights: AI Principles of Siemens

Abstract:
“Professional responsibility […] is not to discover the laws of the universe, but act responsibly in the world by transforming existing situations into more preferred ones.” (Herb Simon, 1996)
In einer ersten Näherung spielen natürlich die sich derzeit schnell weiterentwickelnde Regulierungen eine große Rolle dabei, die Risiken, die in Design und Nutzung der KI entstehen können, einzugrenzen. Neben existierenden Produkthaftungsgesetzen, der DSGVO oder Sicherheitsbestimmungen konkretisieren allerdings viele Institutionen und Unternehmen ihren Ansatz in Chartas oder Regelwerken, die den Besonderheiten der KI gerecht werden sollen. Bei Siemens nutzen wir einen Satz von sieben „mitigation principles“ (s. Abbildung unten), von denen wir glauben, dass sie dabei helfen, die unbestrittenen Vorteile der KI in einem verantwortlichen Rahmen nutzbar zu machen. Neben sinnvollen, auf KI zugeschnittenen Regeln spielt als zweiter großer Hebel bei der Risikominimierung das ganzheitliche Einbeziehen verschiedenartiger Perspektiven eine große Rolle. Denn die Tatsache, dass wir in einer volatilen, von Unsicherheit geprägten Welt leben, in der wir alle blinden Flecken in unserer Wahrnehmung und Urteilskraft haben und damit oft in unbewusster Voreingenommenheit entscheiden, macht es erforderlich, diese menschliche Schwäche auch im Bereich der Künstlichen Intelligenz aus verschiedenen Perspektiven zu erkennen und zu korrigieren. Diversität als elementarer Baustein im KI Lebenszyklus: Die Daten, mit denen KI-Systeme trainiert werden, müssen die Bandbreite ihrer späteren Anwendungsfälle abdecken, um zu gültigen Ergebnissen zu kommen. Aber unterschiedliche Perspektiven müssen auch im Forschungs-, Entwicklungs-, und Anwendungsbereich der KI einbezogen werden. Von Endnutzern über Domänenexperten bis zur SoftwareEntwicklung – wir müssen Vielfalt in all ihren Dimensionen wie Geschlecht, sozialer- und ethnischer Herkunft als gesellschaftliches Potenzial wertschätzen und integrieren. Diversität ist somit nicht nur der Motor für herausragende Innovationsleistungen, sondern auch elementar für die Minderung von Voreingenommenheit und Bias in der Künstlichen Intelligenz. …


… Ein verantwortungsvoller Umgang mit der Künstlichen Intelligenz erfordert nicht nur ein technisches und institutionelles Steuern und Überwachen des KI Prozesses hinsichtlich Bias, Fairness, Transparenz, Verantwortlichkeit und Erklärbarkeit, sondern auch eine kontinuierliche Weiterqualifizierung der Entwickler, Anwender und Entscheider. Diese müssen die Vorteile, Gefahren und Verfahren zur Risikominderung von KI-Methoden und Applikationen in Trainings kennen und einschätzen lernen. 
“Trust is not necessarily about transparency but about interaction.“ 
Vertrauen und Sicherheit sind die wichtigsten Imperative für Mensch, Prozess und Produkte im gesamten Lebenszyklus der KI. Die Vorteile aber auch Konsequenzen von KI entfalten sich immer noch und werden weiterhin die Gesellschaft und Wirtschaft grundlegend verändern. Daher ist es umso wichtiger, den technologischen und kulturellen Wandel gemeinsam und verantwortlich zu gestalten.

BibTeX:

@ARTICLE{WaltingerBlumoser:2019, 
 author={Ulli Waltinger and Benno Blumoser}, 
 title={Responsible AI: Transparenz, Bias, und Verantwortung in der KI},
 journal={Handelsblatt Journal Future IT}, 
 year={2019}, 
 volume={17th December}, 
 page={9-10}, 
 publisher={Handelsblatt} 
}

PDF