Regeln für KI im Office

KI ist auch nur ein Werkzeug. Bei aller “Redseligkeit” der neuen generativen, textgesteuerten KIs wie ChatGPT dürfen wir das nicht vergessen. Und Werkzeuge sind kein Selbstzweck, sondern sollen dem Menschen dienen (Seminar KI-Nutzung im Office). Wie allen Werkzeugen wohnt auch KI ein Gefährdungspotenzial inne: Sie kann fehlen und sie kann missbraucht werden. Daher braucht es einen Regeln für KI im Office.

Das ist kein Grund zu Angst oder gar Verbot des Werkzeugs KI, aber doch ein Anlass für bewussten Umgang. Es stellt sich die Frage: Wie wollen wir mit KIs arbeiten und leben?

Derzeit ist noch Goldgräberstimmung und anything goes. Es lässt sich auch nicht absehen, wie und wann gerade die sich so menschlich gerierenden KIs wie ChatGPT tatsächlich für den Einzelnen und Unternehmen relevant werden. In manchen Bereichen mag das schneller gehen, in anderen länger dauern. Dennoch oder gerade deshalb lohnt die Überlegung, wie ein allgemeiner Rahmen für die Nutzung aussehen könnte. Wie kann das Potenzial erschlossen werden, ohne leichtfertig zu gefährden?

Um den Extremfall einer Gefährdung von Leib und Leben muss es dabei gar nicht gehen. Schon Vertrauensverlust, Unsicherheit, Verwirrung als Ergebnis der Nutzung von KI sind bedenkenswerte mögliche Folgen.

Regeln für KI im Office
Bild generiert durch die KI Midjourney

Aber lässt sich ein Rahmen spannen, der nicht zu eng und nicht zu weit ist? Die Deutsche Presseagentur (dpa) hat für sich Guidelines entwickelt, die wie ein guter Startpunkt aussehen. Mit kleinen Verallgemeinerungen können Sie jedem Unternehmen ein Handlauf bei der Erkundung der schönen, neuen KI-Welt sein:

  1. Wir stehen dem Einsatz von KI zu ganz unterschiedlichen Zwecken aufgeschlossen gegenüber. KI wird helfen, unsere Arbeit besser und schneller zu machen – immer im Sinne unserer Kunden und unserer Produkte.
  2. Wir setzen KI nur unter menschlicher Aufsicht ein. Die letzte Entscheidung über den Einsatz von KI-basierten Produkten trifft ein Mensch. Wir achten die menschliche Autonomie und den Vorrang menschlicher Entscheidungen.
  3. Wir setzen nur rechtmäßige KI ein, die sich an geltendes Recht und gesetzliche Bestimmungen hält und die unseren ethischen Grundsätzen gerecht wird, also etwa der menschlichen Autonomie, Fairness und demokratischen Werten.
  4. Wir setzen KI ein, die technisch robust und sicher ist, um die Risiken für Fehler und Missbrauch zu minimieren. Dort, wo Ergebnisse ausschließlich durch KI erzeugt werden, machen wir dies transparent und erklärbar. Die Verantwortung für alle mit KI erzeugten Inhalte trägt stets ein Mensch.
  5. Wir ermuntern alle Mitarbeiterinnen und Mitarbeiter, sich offen und neugierig mit den Möglichkeiten von KI zu befassen, Tools zu testen und Vorschläge für die Nutzung in unseren Workflows zu machen. Entscheidend sind Transparenz, Offenheit und die Dokumentation.

Punkt 1 und 5 als Klammern sind klar positiv formuliert: KI bietet Potenzial für alle Unternehmensbereiche und auf allen Ebenen. Punkte 2 bis 4 binden die KI an den Menschen. Er hat ganz klar den Vorrang, sowohl als Nutzer wie als Datum in der Verarbeitung durch KI.

Auf diese Weise wird Raum geschaffen für kleine und große Experimente aller Art. Sie können dazu beitragen, im Rahmen des existierenden Geschäftsmodells bessere Ergebnisse zu liefern oder weniger Aufwand zu treiben. Sie können aber auch Hinweise zum Überdenken des Geschäftsmodells geben. Andererseits kann der Einzelne für sich Optimierungen erarbeiten.

Ein sicheres Fundament für konkrete Rollen und Arbeitsplätze sind solche Guidelines aber selbstverständlich nicht. Doch indem solchermaßen Mitarbeiterinnen und Mitarbeiter ermuntert werden, sich mit dem KI-Werkzeug auseinanderzusetzen, wird Raum geschaffen, die eigene Kompetenz in vielerlei Hinsicht zu erhöhen — und auf diese Weise etwas für den Erhalt des Arbeitsplatzes zu tun.

Die KI ist gekommen, um zu bleiben. Daran wird keine staatliche Regulierung etwas ändern. Je proaktiver Unternehmen sich allerdings (öffentlichkeitswirksam) um einen bewussten Umgang mit der KI bemühen, desto geringer die Gefahr einer überreagierenden Beschneidung und Überlastung mit bürokratischen Auflagen. Eine DSGVO-ähnliche Reaktion der Politik sollte dringend vermieden werden.


Dieser Artikel erschien zum ersten Mal in meinem Newsletter bei Substack hier im April 2023. Dort finden Sie auch weitere Artikel und können den Newsletter per E-Mail abonnieren.

Bitte teilen Sie diesen Beitrag. Vielen Dank!

KI als Copilot für die Assistenz

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Bitte füllen Sie dieses Feld aus.
Bitte füllen Sie dieses Feld aus.
Bitte gib eine gültige E-Mail-Adresse ein.

Menü
Teilen
Teilen
Teilen