AI klaarmaken voor kritische toepassingen

Thu Mar 28 2024

03 28

AI klaarmaken voor kritische toepassingen

03/06/2021

Door Ad Spijkers

Er zijn tal van toepassingsmogelijkheden voor kunstmatige intelligentie (AI) in industriële omgevingen. Toch wordt AI nog maar weinig gebruikt.


     

Het is erg uitdagend om de betrouwbaarheid van op AI gebaseerde systemen empirisch te valideren. Nieuwe certificeringscriteria kunnen er voor zorgen dat AI klaar is voor veiligheidskritische toepassingen.

Er zijn de afgelopen jaren tal van veelbelovende AI-algoritmen en -architecturen ontwikkeld, onder meer bij het bij Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA) in Stuttgart. Voorbeelden zijn computer vision, mens-machine-interfacing en robotica in netwerken. Praktische toepassing is het enige dat nog ontbreekt. Er is een kloof tussen onderzoek en toepassing en de industrie is vrij traag gebleken bij het implementeren van nieuwe AI-toepassingen. Ze worden als niet betrouwbaar genoeg beschouwd voor veiligheidskritieke toepassingen.

Vertrouwen

Als onderzoeker van Fraunhofer-IPA praten met industriële partners wordt snel duidelijk, dat bedrijven alleen echt autonome en zelflerende robots willen gebruiken. Ze willen bijvoorbeeld dat deze absoluut betrouwbaar functioneren en wanneer duidelijk is dat ze geen enkel risico vormen voor mensen.

Maar dat is nu precies wat tot op heden onmogelijk is te valideren. Er zijn geen normen of gestandaardiseerde tests, en ze zijn dringend nodig. Het doel moet zijn om beslissingen die door algoritmen worden genomen, certificeerbaar en transparant te maken. Zo moet de traceerbaarheid gegarandeerd zijn. Als een machine zelfstandig beslissingen neemt, dan moet de programmeur of gebruiker – in ieder geval achteraf – kunnen achterhalen waarom de robot in een bepaalde situatie een fout heeft gemaakt. Alleen op deze manier kunnen we ervoor zorgen dat een dergelijke fout niet wordt herhaald.

Maar hoe kunnen mensen de veiligheid van kunstmatige intelligentie waarborgen? Fraunhofer-IPA heeft een strategie voorgesteld om dit probleem op te lossen. Het instituut rapporteert over de huidige status van de relevante technologie in zijn witboek Reliable AI - The use of AI for safety-critical industrial applications. De strategie is gebaseerd op certificering en transparantie.

Basiscriteria

Over het algemeen ligt de focus primair op het vinden van regels die helpen om de betrouwbaarheid van machine learning en bijbehorende AI-processen te evalueren. Het onderzoek heeft geresulteerd in de vaststelling van vijf criteria waaraan AI-systemen moeten voldoen om als veilig te worden beschouwd.

De tweede basisvoorwaarde voor veilig gebruik van AI-systemen is dat ze transparant zijn. In lijn met de ethische richtlijnen van de High-Level Expert Group on Artificial Intelligence  (HLEG AI) van de Europese Commissie is dit een van de belangrijkste elementen voor het realiseren van betrouwbare AI. In tegenstelling tot de criteria die kunnen worden gebruikt om de betrouwbaarheid op algoritmisch niveau te controleren, heeft deze transparantie uitsluitend betrekking op menselijke interactie op systematisch niveau.

Gebruikers zullen AI alleen vertrouwen wanneer het mogelijk is om de betrouwbaarheid van zelflerende, autonome AI-systemen te testen met gestandaardiseerde processen, ook rekening houdend met ethische overwegingen. Als dit vertrouwen er is, wordt de kloof tussen onderzoek en toepassing kleiner.

Het witboek is beschikbaar in een Engelse en Duitse versie en hier gratis te downloaden.

Foto: Fraunhoer-IPA