Digitalisering en robotica
De mens werkt sinds de industriële revolutie samen met steeds slimmere machines en robots. In de laatste jaren worden de robots en cobots (robots waarmee wordt samengewerkt) steeds meer voorzien van AI (artificial intelligence – kunstmatige intelligentie) en ML (machine learning – lerend vermogen). Dit levert zowel kansen als risico’s op voor de veiligheid.
Het lerende vermogen zorgt ervoor dat machines op verschillende vlakken, die traditioneel worden geassocieerd met menselijke intelligentie, de mens overtreffen. Websites weten wat het best verkoopbare product is, auto’s corrigeren slordig rijgedrag (of rijden gewoon zelf), vacaturewebsites selecteren zonder bias kandidaten en telefoons geven accurate antwoorden op vragen, om maar een paar voorbeelden te noemen.
Ook in de werkomgeving worden steeds vaker machines ingezet met zelflerend vermogen. Robots en cobots die gebruikt worden bij het uitvoeren van werkzaamheden moeten voldoen aan strenge veiligheidseisen. Net als bij ‘gewone’ machines, moeten fabrikanten in de ontwerpfase al meenemen dat hun machines geen gevaar opleveren voor werknemers. Dat geldt ook voor de AI- en ML-functies in de robots en cobots.
Wanneer robots met AI worden uitgerust veranderen die van mechanische verlengstukken tot intelligente actoren waarmee mensen samenwerken en het is vooralsnog niet duidelijk welke risico’s mensen lopen. Want wat doen we als er niet van uit kunnen gaan dat de mens de intelligentste schakel is?
In het Technisch Weekblad (januari 2021) verscheen hier een artikel over.
Cybersecurity en intelligente robots
Intelligentie in machines, robots en cobots zorgen voor een flinke stap voorwaarts in de productie. ICT-systemen worden ingebed in de besturing van arbeidsmiddelen en werken via lokale netwerken en publieke netwerken zoals het internet. Dat brengt specifieke veiligheidsrisico’s met zich mee: met name de mogelijkheid dat individuen of malware toegang krijgen tot bedrijfssystemen en netwerken in de arbeidsomgeving. De complexiteit wordt vaak onderschat. Op het moment dat het systeem niet meer doet wat het moet doen, blijkt dan pas dat men niet is voorbereid op storingen als gevolg van die complexiteit.
Ook deze risico’s moeten worden geïnventariseerd en er moeten maatregelen worden genomen om incidenten te voorkomen. Daarnaast is het aan te bevelen protocollen klaar te hebben liggen voor het geval er iets misgaat. De Veiligheidskaart Veilige Arbeidsmiddelen en Cybersecurity geeft een overzicht van mogelijke kwetsbaarheden en maatregelen.
Er wordt op dit moment verder onderzoek gedaan naar de geïntegreerde aanpak van veiligheid en beveiliging bij digitalisering. Meer informatie hierover is te vinden op deze website Integrated Management of Safety and Security Synergies in Severo Plants.
Artificial Intelligence en Machine Learning om gevaren te detecteren
Artificial Intelligence- en Machine Learning-technieken kunnen juist ook bijdragen aan de veiligheid. Ongehinderd door onderbuikgevoel en gevoeligheden, blijken ze succesvol te zijn in het classificeren van verschillende soorten incidenten en in het vinden van patronen in de oorzaken van incidenten. Deze kennis kan worden gebruik om maatregelen beter af te stemmen en te werken aan die punten waar de veiligheid nog niet optimaal blijkt te zijn gewaarborgd.
Big data
De basis voor dit soort inzichten ligt in ‘big data’. Dat lijkt wellicht iets voor grote techbedrijven in Sillicon Valley, maar bedrijven beschikken – vaak zonder dat ze zich daar bewust van zijn – over veel informatie, ook op gebied van (arbeids- en proces-) veiligheid. Dergelijke ‘verborgen data’ is bruikbaar om méér en sneller gevaren te identificeren, om patronen – die altijd vooraf gaan aan incidenten – beter te herkennen, of om zwakke plekken (oorzaken of verborgen gebreken) in installaties te ontdekken. Met deze ‘early warnings’ kunnen incidenten worden voorkomen.
Hoewel de adaptatie van cobots in de Nederlandse markt vooralsnog enkel op kleine schaal plaatsvindt in vooral de maakindustrie, is de realiteit en verwachting dat zij mede onder druk van macro-economische en maatschappelijke krachtenvelden aan toepassing zullen winnen. Intelligente samenwerking tussen mens en robot gedreven door slimme algoritmen vraagt om herziening van veiligheidsbeheersing op diverse systeemniveaus. Nieuwe EU wetgeving stelt alvast strengere aanvullende eisen aan (geavanceerde) mens-machine interactie in de ontwerpfase van de robot. Ook de rol van de veiligheidskundige gaat drastisch veranderen: de AI-veiligheidsdeskundige is in opmars.
In het Tijdschrift voor Toegepaste Arbowetenschap (november 2021) verscheen hier een artikel over.
GAVA: Gedistribueerde Audit van Arbeidsmiddelen
GAVA is een gedistribueerd audit-instrument waarbij alle medewerkers meewerken aan de kwaliteit van veiligheidsbarrières. Voor GAVA wordt gebruik gemaakt van de bestaande TNO-app ‘HowAmI’.
Aan de slag met digitalisering?
TNO doet onderzoek naar cybersecurity en de rol van artificial intelligence en machine learning. Neem contact met ons op voor vragen.
Contact