Loading

Im Wettbewerb der Werte Von Dr. Alexander Brink und Dr. Frank Esselmann

Die Auseinandersetzung mit Werten ist nicht neu: Mit der exponentiellen Zunahme des technisch Machbaren und der Übergabe von menschlicher und institutioneller Verantwortung an Algorithmen verschärft sie sich jedoch gravierend. Das Publikum spaltet sich: Technikskeptiker sehen in der Entwicklung eine Bedrohung für die Menschlichkeit, Technikbefürworter prognostizieren eine goldene Zukunft. Unternehmen stehen vor der Herausforderung, auch bei der Digitalisierung eine klare Werteposition einzunehmen. Die Frage: Gibt es in dieser Situation einen eindeutigen, langfristig haltbaren Konsens?

Die Ausgangslage: „Eine Straßenbahn rast auf eine Gruppe von fünf Menschen zu. Durch Umstellen einer Weiche können die fünf Menschen gerettet werden, aber ein anderer Mensch würde sterben. Was würden Sie tun?“ Entscheidungssituationen wie diese sind längst in der Tagespresse und in Ethikkommissionen angekommen, denn die Digitalisierung greift tiefer in das Leben der Menschen ein als technische Innovationen früherer Perioden. (Teil)autonome Autos, virtuelle Assistenten, Smart-Home-Techniken, Wearables und neue Behandlungsformen in der Medizin bestimmen zu einem erheblichen Teil unser Leben. Doch mit all diesen Techniken stellen sich zunehmend drängende Fragen nach der Privatsphäre, Sicherheit, Selbstbestimmung und Gerechtigkeit – mit anderen Worten: nach den zu Grunde liegenden Werten.

Neue soziale und ethische Fragen

Die größten Umwälzungen verspricht im Moment die künstliche Intelligenz, etwa durch virtuelle Assistenten wie Alexa, Siri, Cortana und Co.. Diese scheitern heute noch oftmals an mangelndem Verständnis, etwa bei der Spracherkennung, aber sie liefern auch hilfreiche Informationen – und manchmal machen sie dezent Werbung für ihre Hersteller. So weit entspricht das im Wesentlichen gewohnten funktionalen Geschäftsmodellen, nur in „neuen Kleidern“. Insbesondere wer Kinder hat, hört Unterhaltsames: „Alexa, hast du mich lieb?“ Alexa: „Von hier bis zum Mond.“ Wer etwas spielen mag: Es findet sich Erstaunliches und man gewinnt die Erkenntnis, dass virtuelle Assistenten (gezielt?) Emotionen bedienen.

Hier handelt es sich nicht um Einzelfälle einer singulären Technik. Wearables werden entscheiden müssen, ob sie Herzrhythmusstörungen ihrer Benutzer melden, halbautonome Autos, ob sie bei Müdigkeit ihres Fahrzeugführers an den Straßenrand fahren, Küchenmaschinen, ob sie schwangeren Benutzerinnen bestimmte Ernährungstipps geben dürfen.

Ob künstliche Intelligenz wirklich eine Bedrohung für die Menschheit darstellt, wie Microsoft-Gründer Bill Gates mahnt, soll hier dahingestellt bleiben, aber es dürfte eine sichere Wette sein, dass wir uns ziemlich zeitnah in lebhaften Dialogen mit Maschinen wiederfinden werden. Damit verlassen wir die funktionale Ebene virtueller Assistenten und sehen uns mit ernsthaften sozialen und ethischen Fragen auf zwei Ebenen konfrontiert: Welche Antworten auf kritische Fragen finden wir akzeptabel oder zumindest legitim? Wollen wir überhaupt, dass virtuelle Assistenten eine emotionale Beziehung zu den Nutzern aufbauen oder eine solche möglicherweise sogar forcieren?

Unternehmen müssen aktiv eine Werteposition einnehmen

Grundsätzliche Fragen wie diese stellen keine Dramen dar, sondern sind die Begleiterscheinungen einer Menschheit mit atemberaubend neuen technologischen Möglichkeiten. Aber wer entscheidet, was legitim ist? Das sollte – natürlich innerhalb ordnungspolitischer Grenzen – ein informierter und mündiger Verbraucher tun. Die „emotionale Alexa“, die „technisch-sachliche Alexa“, die „ökologisch nachhaltige Alexa“ – Variationen virtueller Assistenten werden ihren Markt finden.

Unternehmen müssen daher aktiv eine Werteposition einnehmen, diese konsequent umsetzen und verständlich kommunizieren. Über kurz oder lang wird dies in vielen Fällen der Markt fordern. Der heute gelebte ethische Minimalismus „Keine Festlegung ist am wenigsten angreifbar“ wird nicht mehr funktionieren. Unternehmen können von einem Wettbewerb der Werte in erheblichem Maße profitieren – der Red Ocean einer Materialschlacht um immer bessere Funktionalitäten kann zu einem Blue Ocean der Wertepositionierungen werden. Medizintechnik, Altenpflege, Medien, Handel: Rund um die Front-Line-Industrien der Digitalisierung wächst der Druck. Verbraucherschützer fordern gar einen Algorithmen-TÜV.

Ja – keine Positionierung ist ohne Risiko. Nein – es geht nicht um ein „Ad hoc“-Pressestatement. Wer etwas über Schwierigkeiten, Methoden und Erfolge lernen möchte, kann sich die Historie der Entwicklung im Corporate-Responsibility-Bereich anschauen. Ob das funktioniert? Zahlreiche Unternehmen unterschiedlicher Branchen zeigen, dass Wertepositionen Märkte erschließen können.

Prof. Dr. Dr. Alexander Brink

Prof. Dr. Dr. Alexander Brink ist Professor für Wirtschafts- und Unternehmensethik an der Universität Bayreuth und Gründungspartner bei concern, einer Beratungsgesellschaft mit Sitz in Köln. Er ist zudem wissenschaftlicher Direktor des Zentrums für Wirtschaftsethik in Berlin. Als Autor und Herausgeber zahlreicher Bücher und Zeitschriften führte er diverse Praxisprojekte mit namhaften Unternehmen durch. Bei concern verantwortet er die Weiterentwicklung und wissenschaftliche Fundierung innovativer CR-Konzepte.

Dr. Frank Esselmann

Dr. Frank Esselmann ist Partner bei concern. Er wurde in Mathematik und Informatik ausgebildet und nahm nach einigen Jahren der Forschung 1997 seine Tätigkeit als Unternehmensberater in den USA auf. Seitdem hat er als Projektleiter und Partner zahl- reiche strategische und operative Projekte bei internationalen Unternehmen verantwortet. Einer seiner Tätigkeitsschwerpunkte liegt in den Themenfeldern Digitalisierung und Data Mining/Big Data.

Created By
Michael Ertel
Appreciate

Credits:

Fotos: privat; vege/stock.adobe.com

Report Abuse

If you feel that this video content violates the Adobe Terms of Use, you may report this content by filling out this quick form.

To report a Copyright Violation, please follow Section 17 in the Terms of Use.