Allgemein

Roboter und künstliche Intelligenz sicher einsetzen: So geht’s

4. April 2022, von Dr. Werner Kraus und Ramez Awad

Geprägt von Fachkräftemangel und Lieferkettenschwierigkeiten gehen immer mehr produzierende Unternehmen den Schritt hin zu mehr Automatisierung, um auch in diesen schwierigen Zeiten wirtschaftlich zu fertigen. Die Sicherheit der Anlage ist dabei natürlich immer oberstes Gebot. Doch wie können Roboter und Verfahren mit künstlicher Intelligenz (KI) rechtskonform in der Praxis funktionieren? Im folgenden Text bekommen Sie einen Überblick über die aktuell geltenden Richtlinien und Normen zur Maschinensicherheit. Außerdem erfahren Sie, was es mit dem neuen „KI-Gesetz“ der EU auf sich hat und ob dieses zu Schwierigkeiten beim Robotereinsatz führen wird.

Richtlinien und Normen für Roboter

Schon seit der ersten Verwendung von Robotern haben sich Menschen Gedanken über die Sicherheit im Umgang mit diesen gemacht. Noch bevor einheitliche Normen herausgegeben wurden, hat der Science-Fiction-Autor Isaac Asimov 1942 einen Verhaltenskodex über die ‚Beziehung‘ von Mensch und Roboter veröffentlicht. Obwohl diese sogenannten „Robotergesetze“ Teil eines literarischen, fiktiven Textes sind, haben sie dennoch Wissenschaft und Robotik nachhaltig beeinflusst. Asimov schreibt unter anderem, dass ein Roboter weder der Menschheit noch einem menschlichen Wesen aktiv Schaden zufügen, noch durch Untätigkeit Schaden zulassen darf. Außerdem soll er Befehlen gehorchen und seine eigene Existenz schützen, solange dies nicht gegen die beiden ersten Gebote verstößt. Diese Gesetze dienten Programmierern lange als ethisches Richtmaß. In der Praxis würde ihre dogmatische Auslegung jedoch zu nicht auflösbaren rechtlichen Widersprüchen führen und zum Teil sogar gegen das Grundgesetz verstoßen, daher können sie nicht zur konkreten Programmierung von Robotern verwendet werden. Nach und nach führten viele Staaten ihre eigenen Sicherheitsanforderungen ein. Um hier Klarheit zu schaffen, veröffentlichte die Europäische Union 2006 die Maschinenrichtlinie, die das einheitliche Schutzniveau für Maschinen regelt und Mindeststandards definiert. Für Industrieroboter gibt es die europäisch harmonisierenden Normen EN ISO 10218-1 und EN ISO 10218-2. Sie gelten für Systeme mit mindestens drei frei programmierbaren Achsen, also unter anderem Sechs-Achs-Knickarmroboter, Scara-Roboter oder auch Portalroboter. Handhabungssysteme mit weniger Achsen haben keine eigenständige Norm, können aber daran angelehnt werden. Für nicht industrielle Roboter, z.B. Serviceroboter, gilt die Norm EN ISO 13482. Zusätzlich zu den Normen müssen Industrieroboter mit Schutzeinrichtungen umgeben sein, die den Zutritt von Personen zum Gefahrenraum verhindern. Außerdem gilt das Prinzip der EG-Konformitätserklärung: Hier bestätigt der Lieferant, dass er als verantwortlicher Hersteller auftritt und die Anlage mit den grundlegenden Sicherheits-Anforderungen aller relevanten europäischen Richtlinien konform ist. Also muss die Maschine vor Inbetriebnahme der EG-Maschinen-Richtlinie (2006/42/EG) und den zentralen IR-Sicherheitsnormen entsprechen. Für Cobots, also Roboter, die gemeinsam mit Menschen arbeiten, gilt eine Leistungs- und Kraftbegrenzung bei Personenkontakt. Diese biomechanischen Grenzwerte definiert die ISO TS 15066.

Teure Planungsfehler wegen mangelndem Safety-Konzept

Durch Anwendung dieser Normen sinken Jahr für Jahr die Arbeitsunfälle im Umgang mit Robotern. Auch ermöglichen sie neuartige Anwendungen im öffentlichen Umfeld, wo eben auch Menschen ohne Robotik-Fachwissen mit den Maschinen in Kontakt kommen könnten. Allerdings sind die Vorschriften teils sehr restriktiv und unübersichtlich. Dies macht es Anwendern und Integratoren von Robotersystemen schwer, den Durchblick zu bewahren. In der Praxis kann dies zu teuren Planungsfehlern führen bis hin zu dem Punkt, dass z.B. geplante Cobot-Applikationen schlussendlich nicht zertifizierbar sind. Nicht selten fallen diese Fehler erst spät im Projekt auf, wenn bereits in den Roboter investiert wurde. Entweder kommt er dann doch hinter einen Schutzzaun oder das Konzept kann gar nicht umgesetzt werden. Eine typische Frage ist auch, wie Cobots schutzzaunlos bei wirtschaftlicher Taktzeit betrieben werden können.

Fundiertes Wissen dank Tools des Fraunhofer IPA

Damit Anwender rund um alle Fragen der Sicherheit einer Roboteranwendung eine fundierte Entscheidungsgrundlage erhalten, sind spezifisches Fachwissen und Softwarelösungen gefragt, die bereits von der ersten Planung unterstützen. Um eine Anwendung mit Mensch-Roboter-Kollaboration (MRK) sinnvoll umzusetzen, kann CARA genutzt werden, das »Computer-Aided Risk Assessment« (CARA). Es bietet eine teilautomatisierte Risikobewertung. Für diese prüft die Software die einzelnen Prozessschritte sowie die dafür nötigen Werkzeuge, sogenannte Ressourcen. Die Ressourcen befinden sich in einer Datenbank und ein Systemintegrator kann sie anwendungsspezifisch auswählen. Auf Basis dieser Informationen benennt CARA potenzielle Gefahren und geeignete Sicherheitsmaßnahmen. Ein weiteres Angebot des Fraunhofer IPA sind der MRK-Katalog und das MRK-Abschätzungstool. Für MRK-Anwendungen im industriellen Bereich gilt die oben genannte ISO-Norm 10218. Sie umfasst vier mögliche Kollaborationsszenarien, von denen jedes bestimmte Anforderungen an die einzusetzenden Safety-Komponenten hat. Weil es hier oft an Expertenwissen hinsichtlich den gesetzlichen Vorgaben fehlt, nutzen Unternehmen MRK oft gar nicht oder bauen nur auf das Schutzprinzip Kraft- und Leistungsbegrenzung. Das resultiert in langsameren Anwendungen, unsichereren Zykluszeiten und ggf. einer ungünstigen Wirtschaftlichkeit. Hier setzt der MRK-Katalog an: Er umfasst den möglichen MRK-Typ, bewertet Sicherheitskomponenten und deren mögliche Kombination und empfiehlt mithilfe eines Fragenkatalogs das passende Sicherheitsprinzip. Demgegenüber unterstützt das MRK-Abschätzungstool dabei, die Zykluszeit einer konkreten Anwendung genau einschätzen zu können. In einem Excel-Datenblatt werden Prozesse nachgebildet und Anwender erhalten Auskunft über die Zykluszeit und Investitionskosten. Alle drei vorgestellten Tools helfen somit, fundiert eine Entscheidung über eine geplante MRK-Anwendung zu treffen.

Neue Richtlinien der EU-Kommission

Abgesehen von Fragen rund um die MRK gibt es weitere herausfordernde Fragen rund um die Safety. Denn Roboter arbeiten nicht mehr nur stur vor sich hin. Dank der ständigen Weiterentwicklung von KI und maschinellem Lernen (ML) sind sie immer öfter mit kognitiven Fähigkeiten ausgestattet. Das heißt, basierend auf Sensordaten können sie ein ‚Verständnis‘ für die Aufgabe entwickeln und autonom eine passende Handlung planen und umsetzen. Sie können ihre Abläufe also im Sinne einer „Automatisierung der Automatisierung“ z.B. an individuelle Werkstücke anpassen, ohne dass hier explizit jeder individuelle Arbeitsschritt programmiert werden muss. Verfahren der KI gibt es schon seit Jahrzehnten, doch die Gesetzeslage ist nach wie vor uneinheitlich. Daher arbeitet die EU-Kommission aktuell an einer neuen KI-Richtlinie, die den sicheren, ethischen und grundrechtekonformen Einsatz von KI sicherstellen soll. Damit möchte sie die Entwicklung von KI fördern, aber bestimmte Anwendungen regulieren. Mit KI ist hier außerdem nicht nur die Software gemeint, die auf maschinellem Lernen und neuronalen Netzen basiert, sondern generell alle Arten algorithmischer Entscheidungs- und Empfehlungssysteme. Das Spektrum reicht von Videospielen über Chatbots bis hin zur Software, die Lebensläufe von Bewerbern automatisch bewertet. Roboter oder selbst 3D-Drucker sind also auch betroffen, sobald sie KI-basierte Software nutzen – was in den nächsten Jahren bald der Standard werden wird. Margreth Vestager, verantwortlich für Digitalisierung und Vizepräsidentin der Kommission, sagt: „Je höher das Risiko, das KI für unser Leben bedeutet, desto strenger die Regeln.“ Die Kommission hat eine Liste mit hochriskanten Anwendungen erarbeitet, deren Einsatz nach Verabschiedung des Gesetzes genehmigungspflichtig werden dürfte. Darin befinden sich z.B. algorithmische Systeme in medizinischen Geräten wie Operationsroboter und selbstfahrende Autos, aber auch die automatisierte Gesichtserkennung auf öffentlichen Plätzen oder die Bewertung der Kreditwürdigkeit von Privatpersonen. Für diese Anwendungen ist ein qualitativ hochwertiger Datensatz vorgeschrieben und die Aktivitäten der Systeme sollen geloggt werden, damit ihre Entscheidungen nachvollziehbar werden. Bei Verstößen sind Strafen bis zu 30 Millionen Euro oder sechs Prozent des globalen Jahresumsatzes möglich. Eine weitere Neuerung, auf die sich der Maschinenbau im Kontext der Safety einstellen muss, ist die für 2023 geplante Aktualisierung der oben genannten bestehenden Maschinenrichtlinie. Beispielsweise dürfen laut dieser Betriebsanleitungen künftig digital vorhanden sein. Zudem rückt das Thema „Security“ stärker in den Fokus und es wird eine Liste an „Hochrisiko-Maschinenprodukten“ geben. Dazu gehören beispielsweise Software und KI-Systeme, die Sicherheitsfunktionen wahrnehmen, und auch Maschinen, in die solche KI-Systeme integriert sind. Kommen Softwarekomponenten zum Einsatz, die mithilfe von KI bzw. maschinellem Lernen Personen wahrnehmen sollen, müssen diese zum Nachweis ihrer Sicherheit die CE-Kennung erhalten.

Erklärbare KI schafft Sicherheit und Vertrauen

Kritiker beklagen, dass mit dem Beschluss rund um die KI-Richtlinie, deren Verabschiedung vermutlich 2023 zu erwarten ist, die Technologie überreguliert wird. Die Kommission allerdings argumentiert, dass die meisten Anwendungen nicht riskant und daher nicht betroffen seien. Bei den riskanten Fällen sei dann das Vertrauen das A und O: Die Software müsse überwacht werden, eine Notausschaltung möglich und generell die Arbeitsweise der Programme transparent sein. Auch das Fraunhofer IPA forscht in diese Richtung: Viele, auch sicherheitskritische, KI-Anwendungen haben aktuell noch einen sogenannten „Black-Box-Charakter“: Das heißt, selbst Experten verstehen nicht immer, wie zum Beispiel ein neuronales Netz zu einem bestimmten Ergebnis gelangt ist. Dieser Mangel an Transparenz kann jedoch sicherheitstechnische und rechtliche Schwierigkeiten geben, besonders im Hinblick auf die eben genannte kommende CE-Pflicht KI-basierter, sicherheitsrelevanter Software der neuen Maschinenrichtlinie. Und das Vertrauen des Anwenders in die Technik leidet ebenfalls. Hier hilft das Forschungsfeld der sogenannten „explainable AI“ (xAI). Darin entwickeln Forscher Methoden, mit deren Hilfe Nutzer auch komplexe KI-Anwendungen verstehen und die Ergebnisausgabe nachvollziehen können. Damit sind dann auch Verbesserungen oder das Erfüllen rechtlicher Vorgaben in punkto Sicherheit möglich. Bereits jetzt sind viele verschiedene digitale Hilfen auf dem Markt. Solche Tools markieren beispielsweise in der Qualitätssicherung die Pixel in Bildern, die zum automatischen Aussortieren eines fehlerhaften Teils in der Produktion geführt haben. Wenn Unternehmen in der Lage sind, die Arbeitsweise und Limitierungen von KI-Modellen besser einzuschätzen, können sie zum einen Rückschlüsse auf zugrundeliegende Prozesse ziehen und die bei risikoreichen Anwendungen vorgeschriebenen Gesetze einhalten. Zum anderen erhöht eine erklärbare KI aber auch die Akzeptanz in der Belegschaft.

Lieber Vorsicht als Nachsicht

Es wird also abzuwarten sein, was genau der Beschluss der EU-Kommission 2022 für die Anwendung von Robotern und KI bedeutet. Fest steht aber, dass zur Sicherheit aller Beteiligten die geltenden Normen und Richtlinien genauestens überprüft werden sollten. Dabei ist nicht nur der Anwender in der Prüfpflicht, sondern auch der Inverkehrbringer. Wer sich zwischen all den Paragraphen unsicher fühlt, sollte keine falsche Scheu an den Tag legen, sondern sich fachlichen Rat holen. Beim Deutschen Kongress für Maschinensicherheit der WEKA Akademie am 28.-29.06.2022 in Nürtingen erfahren Sie noch viel mehr Wissenswertes rund um die Sicherheit von Robotern und KI in der Praxis.
Ich freue mich auf Sie!


Am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA finden Sie Unterstützung zu allen Themen rund um die Robotersicherheit:

Forschende am IPA beschäftigen sich mit Fragen zur Safety und entwickeln ständig neue Safety-Methoden. Sie beraten Sie gerne und entwickeln mit Ihnen gemeinsam das passende Konzept. Hier gelangen zu einer unverbindlichen Ersteinschätzung zur Sicherheit Ihres Roboters.

Zum Thema „Erklärbare KI in der Praxis“ finden Sie hier außerdem eine Studie. Experten am IPA haben neun xAi-Verfahren hinsichtlich ihrer Anwendungsorientierung untersucht und sind zu aufschlussreichen Ergebnissen gekommen.


Das Autorenteam:

Dr. Werner Kraus, Leiter der Abteilung Roboter- und Assistenzsysteme, und
Ramez Awad, Leiter der Gruppe Montageautomatisierung, Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA

Auf dem Deutschen Kongress für Maschinensicherheit 2022 erfahren Sie mehr über dieses und weitere spannende Themen.

Weiter zum Programm

Das könnte Sie auch interessieren:

Allgemein

Funktionale Sicherheit – Änderungen an ISO 13849-1 (PL) und IEC 62061 (SIL)

03.04.23, von Thomas Bömer

ISO 13849-1 und IEC 62061 stellen für den Maschinenbereich die wichtigsten Normen zur funktionalen Sicherheit dar. Nachdem die Arbeiten für eine Zusammenlegung der beiden Normen nicht erfolgreich waren, wurden beide Normen im Rahmen der üblichen „Maintenance“ überarbeitet. Die Ergebnisse liegen nun vor und zeigen einerseits inhaltliche Annäherungen, andererseits deutliche Unterschiede was z.B. den Einsatz von Standardkomponenten oder die Anforderungen zu Software und elektromagnetischer Störfestigkeit angeht. Weiterlesen