Lieber Herr Professor Hacker,

ich freue mich, dass Sie heute hier sind
und dass wir die Gelegenheit haben,

begleitend zu Ihrer Publikation
bei uns im Haus uns auszutauschen

zum Thema Sicherheit und Gesundheit
in einer digitalen Arbeitswelt.

Wo sehen Sie da aktuell
die größten Herausforderungen?

Vielleicht auch die größte Dynamik?

Die kann man in zwei Richtungen sehen.

Einmal in der Richtung, dass
ja nun ein wesentlicher Teil geistiger

Arbeit, informationsverarbeitender
Tätigkeiten automatisiert werden kann

durch digitale Arbeitsmittel,
künstliche Intelligenz

und damit für den Menschen entfällt.

Die zweite Herausforderung sehe ich darin,

dass damit viele Arbeitstätigkeiten
in der Wirtschaft,

das heißt in der Fertigung,
in der Verwaltung,

in den humanen Dienstleistungen,
also im Verkauf, in der Pflege etc.

inhaltlich verändert werden
und diese inhaltlichen Veränderungen

arbeitsgestalterisch
bewältigt werden müssen.

Und meine Sorge ist, dass wir
über der Digitalisierung vergessen,

Arbeitsgestaltung im Sinne
der internationalen

und nationalen Forderungen der Normen

für menschengerechte
Arbeitsgestaltung vergessen könnten.

Sehen Sie den Bedarf,
dass wir Kriterien verändern.

Verändert sich da was?

Brauchen wir neue Kriterien
menschengerechter Arbeit?

Kommt etwas Neues dazu?

Wie würden Sie sagen gehen wir damit
um, mit dieser Dynamik?

Das ist eine ganz entscheidende Frage.

Ich glaube, dass
die vorhandenen Kriterien,

wie sie beispielsweise
in der DIN EN ISO 63 85

für menschengerecht
gestaltete Arbeit beschrieben sind,

so allgemein formuliert sind,

dass sie auch für diese neuen Formen

von Tätigkeiten durchaus gültig sind.

Aber, dass dabei Interpretationsspielraum

berücksichtigt und auch ernst
genommen werden muss.

Beispielsweise der
Interpretationsspielraum, dass,

wenn ich das Beispiel
des Tätigkeitsspielraums ansprechen darf,

der bisher immer nur als zu fordern
beschrieben wurde, jetzt auch

als ein Tätigkeitsspielraum gesehen wird,

dessen Größe nicht überzogen werden darf,

um den Menschen nicht mental,
geistig zu überfordern.

Das ist das Eine, dass wir vorhandene bewährte

Kriterien durchaus übertragen können.

Das heißt, wir müssen sie nicht unbedingt
versuchen buchstabengetreu anzuwenden.

Und ich sehe auch eine

mögliche Ergänzungsnotwendigkeit,

nämlich, dass wir berücksichtigen müssen,

dass der tatsächliche Träger
und verantwortliche Entscheider

bei Arbeitstätigkeiten

der Mensch bleibt,
dass der Mensch also nicht nachgeordnet

hinter künstlicher Intelligenz steht,

sondern, dass er auch Prozesse

der künstlichen Intelligenz kontrolliert.

Das ist die sogenannte
Handlungsträgerschaft, wie es jetzt

in letzter Zeit gerne genannt wird,

die beim Menschen bleiben
sollte. Das ist in den

vorhandenen Normen zwar nicht vergessen,

aber wenig ausdrücklich formuliert,
weil wir es bisher kaum benötigt hatten.

Aber wie gestalten wir das,
wenn künstliche Intelligenz zunehmend

komplexe Tätigkeiten übernimmt?

Vielleicht auch nicht nur Routineaufgaben,
vielleicht auch so ein bisschen

wie in den "ironies of automation"
von Bainbridge aus den 80ern.

Findet das quasi

wieder erneut Anwendung oder
müssen wir es stärker berücksichtigen?

Bekommt auch das eine neue Rolle?

Also Konzepte, die
wir schon kennen, die heute

zum ersten Mal oder stärker
umgesetzt werden müssen für

einen größeren Umfang an Beschäftigten.

Ich bin Ihnen dankbar, dass Sie die
"Ironien der Automatisierung" ansprechen.

Sie sind fast 30 Jahre alt

in der Formulierung
von Lisanne Bainbridge.

Ich denke, sie hat ja
mehrere Automatisierungsironien

formuliert, dass die erste,
nämlich, dass der

Mensch, der doch angeblich so

unzuverlässig und

in einigen Hinsichten
auch leistungsschwach sei, dass der Mensch

dennoch dieser leistungsschwache,
unzuverlässige Mensch der Kontrolleur

der intelligenten Technik bleibt.

Das wird ja auch juristisch
immer wieder unterstrichen.

Wir erleben jetzt beispielsweise,
dass künstliche Intelligenz

außerordentlich gut geeignet ist,
um Ärzte bei der Diagnostik

sehr seltener Erkrankungen
zu unterstützen.

Aber die Übernahme der Empfehlung
der künstlichen Intelligenz an den Arzt

bleibt in Verantwortung des Arztes.

Nicht der Hersteller der künstlichen
Intelligenz übernimmt diese Verantwortung,

sondern der Arzt, der die Empfehlung
der künstlichen Intelligenz übernimmt

und in eine therapeutische
Komponente übersetzt.

Dort erleben wir das,
was wir ansonsten ein wenig

vielleicht versuchen unter den Tisch zu kehren:

dass die Verantwortung des Menschen
nach wie vor unersetzlich ist.

Ich glaube, was voraussichtlich
oder vermutlich auch eine große Bedeutung

hat, ist an der Stelle,
dass wir einen Tätigkeitsbezug haben,

dass wir weniger von Berufsbildern reden,

die durch Technologien beeinflusst werden.

So machen wir das auch
in unserem Schwerpunktprogramm

der Bundesanstalt. Dass wir uns

da sehr differenziert anschauen,
um welche Tätigkeiten geht es denn?

Also arbeite ich mit Informationen,
arbeite ich mit Menschen, mit Personen

oder arbeite ich beispielsweise
in der Montage mit Objekten?

Da wir durchaus sagen,
hier spielt Technologie jeweils

immer eine andere Rolle
als Assistenz- oder im Zweifel

auch als Substitutionsmedium
für die bisherige Tätigkeit.

Ich halte diese Unterscheidung

zwischen Berufen und Tätigkeiten,
die ja in verschiedenen Berufen

durchaus identisch sein können,
auch für außerordentlich wichtig.

Und wenn ich richtig informiert bin,
unterscheiden sie ja

zwischen objektbezogenen,
informationsbezogenen und mensch-/

dienstleistungsbezogenen Tätigkeiten.

Diese Dreiteilung ist außerordentlich

wichtig in der Gestaltung,
in der Arbeitsgestaltung von Tätigkeiten.

Herr Prof. Hacker,
ich danke ihnen herzlich.

Für das Gespräch. Gern.

Auch von mir vielen Dank
für die interessanten Fragen. Vielen Dank!