Thank you for your interest. We Will Contact You Soon...
Your email ID is already registered with us.
Verklaarbare kunstmatige intelligentie (XAI): een inleiding
Technologie - 29 januari 2021
Alan Turing, algemeen beschouwd als de vader van de moderne computerwetenschap, zei
ooit: "Een computer zou het verdienen om intelligent genoemd te worden als hij een
ander mens zou kunnen laten geloven dat hij een mens is". Hij verwees naar het
vermogen van de machine om een mens te imiteren, om een dialoog te voeren die
begrijpelijk en nauwkeurig is.
Zeventig jaar later hebben we nu een geavanceerde kunstmatige intelligentie (AI) in
huis. AI is de voortdurende poging van de mensheid om de machine intelligenter en
intuïtiever te maken. Tegenwoordig werkt AI achter de schermen om ons te helpen bij
onze dagelijkse activiteiten. Het drijft zelfrijdende en parkerende voertuigen aan,
digitale assistenten op onze smartphones en andere applicaties die we elke dag
gebruiken, zoals e-mails en sociale media. AI helpt ook onderzoekers en autoriteiten
in de strijd tegen COVID-19. Een voorbeeld hiervan is eind december 2019 te zien
toen BlueDot , een AI-platform, een toename van gevallen van "ongewone
longontsteking" rond de Wuhan-regio in China rapporteerde. Dit waarschuwde de
autoriteiten om de zaak te onderzoeken en corrigerende maatregelen te nemen.
Tegenwoordig helpt AI onderzoekers bij het testen van COVID-19 en de ontwikkeling
van vaccins.
AI-applicaties versterken autonome systemen die waarnemen, leren en vervolgens zelf
beslissen. Deze systemen gebruiken technologieën zoals Machine Learning en Natural
Language Processing (NLP) om aan grote datasets te werken en ons vervolgens een
output te geven. Er bestaat echter het probleem dat systemen ons niet vertellen wat
de redenering is achter de beslissingen die ze nemen. Ze geven ons de output, maar
vertellen ons niet waarom ze ons die output hebben gegeven.
Denk aan een arts die een AI-systeem gebruikt. Het systeem geeft hem de aanbeveling
om een bepaalde taak uit te voeren, maar de arts zal zich niet op zijn gemak
voelen bij het toepassen van de aanbeveling zonder de redenering ervan te kennen.
Het is een grote leemte die moet worden opgevuld. AI-systemen zullen nooit het
vertrouwen van mensen kunnen winnen als ze hun redenering niet onthullen. Zelfs
AI-ontwerpers kunnen niet uitleggen waarom hun systeem tot een specifieke beslissing
is gekomen. Dit presenteert een "zwarte doos"-scenario waarin niemand weet wat er
onder die doos zit of hoe het werkt. Deze "black box" heeft het potentieel om de
reikwijdte en het bereik van AI zelf te beperken. Om Alan Turning te herformuleren:
machines zullen nooit intelligent worden als ze geen transparant gesprek met mensen
kunnen voeren. Tegenwoordig is er efficiëntie, maar niet veel communicatie, en dit
kan voor velen een dealbreaker zijn.
Voer Verklaarbare AI in!
Wat is verklaarbare AI
In eenvoudige bewoordingen is Explainable AI (XAI) een
kunstmatige-intelligentietoepassing die begrijpelijke redenen geeft voor hoe het tot
een bepaalde conclusie is gekomen.
Verklaarbare AI voegt transparantie toe aan de "zwarte doos" en maakt het mogelijk
om deze door menselijke beoefenaars te onderzoeken en te begrijpen. Het is een
enorme stap voorwaarts om AI ethischer te maken.
Laten we het in detail bekijken.
Een gebruikelijke Machine Learning-workflow ziet er ongeveer zo uit:
Eerst gebruiken we data om een model met een specifiek leerproces te
trainen.
Het leerproces leidt dan tot een Geleerde functie.
Ingangen worden ingevoerd in de functie Geleerd.
De Machine voorspelt de output. De gebruiker ziet deze uitvoer.
Nadat de functie is geleerd, kunnen nieuwe invoer in het model worden ingevoerd en
zal de machine de gewenste voorspelling retourneren.
Neem een voorbeeld. Sam wil een gebruikte auto kopen en is geïnteresseerd in de
prijs ervan. We nemen het model en trainen het met een leerproces. Vervolgens voeren
we invoer in (dit zijn details van gebruikte auto's), en het Machine
Learning-algoritme geeft een voorspelling van de invoerprijs van de auto. Sam kan
naar de prijs kijken en beslissen of het een goede aankoop zou zijn.
Het belangrijkste om hier op te merken is dat er een voorspelling is, maar geen
rechtvaardiging. Het kan Sam in de war brengen omdat hij blindelings op de machine
moet vertrouwen om de juiste beslissing te nemen.
Aan de andere kant volgt Explainable AI het volgende raamwerk:
Zoals je kunt zien, is er hier een nieuw leerproces. Dit leerproces geeft ons niet
alleen de voorspelling, maar verklaart ook waarom het zo'n voorspelling heeft
gedaan. In de nieuwe uitvoer krijgt de gebruiker aanvullende informatie over waarom
de voorspelling is gedaan. Het model voor het bovenstaande voorbeeld ziet er
ongeveer zo uit:
Er is een laag van vermogen om uit te leggen toegevoegd in het ML-ontwerp om een
verklaarbaar AI-model te creëren.
De extra laag is cruciaal omdat:
Verklaarbaarheid helpt om onpartijdigheid in de besluitvorming te waarborgen.
Het helpt eventuele vooroordelen in de datasets op te sporen en te
corrigeren.
Verklaarbaarheid wijst op mogelijke factoren die de voorspelling zouden
kunnen veranderen.
XAI: bedrijven lopen voorop
In de onderstaande passage zullen we kijken naar een paar bedrijven die
XAI-technologie pionieren en naar de wereld brengen.
IBM: IBM voltooide een uitgebreide interne enquête en ontdekte dat
meer dan 60% van zijn leidinggevenden niet op hun gemak was met de
traditionele 'Black box'-benadering van AI. IBM heeft een geavanceerde
cloudgebaseerde AI-tool ontwikkeld en gebruikt XAI-technologie om de
redenering achter de AI-aanbevelingen te geven.
Google: Google heeft een XAI-enabled AI-platform gemaakt dat uitleg
geeft over verschillende functies van Google, zoals beeldherkenning en
codesampling.
Darwin AI: DarwinAI , opgericht in 2017, is actief in een proces dat
bekend staat als "generatieve synthese". Bij deze methode gebruikt DarwinAI
AI om de werking van een deep learning neuraal netwerk te begrijpen. Het
biedt een Explainability- toolkit, een eenvoudig te gebruiken functie die
netwerkdiagnostiek, netwerkfoutopsporing, enz. uitvoert.
Flowcast: Het bedrijf gebruikt zijn eigen AI-technologie om
verklaarbare kredietbeoordelingsmodellen te bouwen. Dit heeft het potentieel
om de kredietregelgeving volledig te transformeren en financiële
instellingen te helpen zich te houden aan de naleving van de regelgeving.
Imandra: Imandra werkt eraan om algoritmen eerlijk, verklaarbaar en
veilig te maken. Het biedt zijn "Reasoning as a service"-oplossing die
XAI-technologie naar belangrijke domeinen brengt. Het begon in de financiële
sector, maar breidde zich langzaam uit naar andere industrieën zoals
transport, robotica, enz.
Kyndi: Kyndi biedt een speciaal NLP-platform (natuurlijke
taalverwerking) en is bedoeld om controleerbare AI-systemen te creëren.
Factmata: Factmata was een van de eerste bedrijven die de problemen
van online nepnieuws aanpakte. Het gebruikt AI-technieken om geloofwaardig
nieuws van nepnieuws te filteren en gebruikt XAI-technieken om de segregatie
te rechtvaardigen.
Laatste gedachten
Innovatie moet hand in hand gaan met vertrouwen; geen enkel bedrijf of technologie
kan slagen zonder vertrouwen. Volgens een PWC-rapport zal AI verantwoordelijk zijn
voor een BBP-winst tot $ 15 biljoen in 2030. Het bedrijf onderzocht ook in 2017 waar
meer dan 70 procent van de leidinggevenden dacht dat AI elk aspect van het bedrijf
van een organisatie zou beïnvloeden. Naarmate AI meer en meer mainstream wordt, is
het belangrijk dat het ethisch en verantwoordelijk wordt en XAI is in dat opzicht
een grote stap voorwaarts.
This website uses cookies or similar technologies, to enhance your browsing
experience and provide personalized recommendations. By continuing to use our website, you agree to our
Privacy
Policy