App Logo

Demo image

Welkom bij onze Open Source multidisciplinaire en interactieve online tool voor het beoordelen van de betrouwbaarheid van de AI-implementatie van een organisatie.

Deze tool is gebaseerd op de ALTAI-aanbevelingen die zijn gepubliceerd door de Europese Commissie en is ontworpen om organisaties te helpen ervoor te zorgen dat hun AI-systemen transparant, robuust en betrouwbaar zijn.

Vermijd Risicogebieden

In de snel veranderende wereld van vandaag maken organisaties steeds vaker gebruik van AI om processen te stroomlijnen en besluitvorming te verbeteren. Het is echter belangrijk dat AI-systemen met voorzichtigheid worden ontwikkeld en geïmplementeerd, zodat ze geen inbreuk maken op fundamentele mensenrechten of vooroordelen en discriminatie in stand houden. Onze tool biedt een uitgebreide beoordeling van de AI-implementatie binnen uw organisatie, waarbij zowel sterke punten als verbeterpunten worden belicht.

Aanbevelingsrapport

U ontvangt tevens gedetailleerde suggesties en begeleiding om de betrouwbaarheid van uw AI-systeem te verbeteren. Dit stelt u in staat om vertrouwen op te bouwen en te behouden bij uw klanten, werknemers en andere belanghebbenden, en risico's die gepaard gaan met AI-implementatie te beperken.

U heeft de controle

Een van de belangrijkste voordelen van onze open-source tool is dat deze gehost en volledig beheerd kan worden door uw organisatie. Dit betekent dat u volledige eigendom en controle heeft over uw gegevens en beoordelingen.

Door de tool op uw eigen servers te hosten, kunt u er ook voor zorgen dat de tool voldoet aan de specifieke beveiligings- en privacyvereisten van uw organisatie.

OPEN-SOURCE, pas de tool aan om te voldoen aan de unieke behoeften van uw organisatie.

Deze flexibiliteit en controle maken onze tool een ideale oplossing voor organisaties die de betrouwbaarheid van hun AI-systemen willen beoordelen en tegelijkertijd volledige controle willen behouden over hun gegevens en beoordelingen.

Installeer het

TEST HET IN DE DEMO-OMGEVING

Demo image

    De demo-omgeving is een publiekelijk beschikbare omgeving om de AI Ethics Assessment Tool uit te proberen.

    Projecten en accounts in de demo-omgeving worden periodiek verwijderd, u moet niet vertrouwen op de demo-omgeving voor productiegebruik. We kunnen niet garanderen dat je projecten niet verloren zullen gaan. We raden over het algemeen aan om uw eigen omgeving te hosten.

Ontmoet de adviesraad AI4Belgium Ethiek & Wetgeving

Nathalie Smuha - Onderzoeker aan de KU Leuven
Nathalie SmuhaOnderzoeker aan de KU Leuven
Nathalie Smuha is een juridisch geleerde en filosoof aan de Faculteit Rechten van de KU Leuven, waar ze juridische, ethische en filosofische vraagstukken onderzoekt met betrekking tot Artificiële Intelligentie (AI) en andere digitale technologieën.
Nele Roekens - Juridisch Adviseur - Unia • Gelijkheidsorgaan en mensenrechteninstelling
Nele RoekensJuridisch Adviseur - Unia • Gelijkheidsorgaan en mensenrechteninstelling
Nele is juridisch adviseur bij Unia, gelijkheidsorgaan en mensenrechteninstelling. Ze is gespecialiseerd in technologie en mensenrechten, met name non-discriminatie. Ze is ook actief op Europees niveau in haar rol als voorzitter van de werkgroep inzake AI van het Europees Netwerk van Mensenrechteninstellingen.
Jelle Hoedemaekers - Expert op het gebied van Standaardisatie bij Agoria
Jelle HoedemaekersExpert op het gebied van Standaardisatie bij Agoria
Jelle is een expert op het gebied van AI-regulering. Hij werkt als ICT-normalisatie-expert bij Agoria, waar hij zich richt op de standaardisatie en regulering van nieuwe technologieën zoals Artificiële Intelligentie. Binnen Agoria werkt hij ook aan het beleid rondom nieuwe technologieën. Jelle co-leidt ook de AI4belgium werkgroep Ethiek en Recht, die kijkt naar de ethische en juridische implicaties van AI in het Belgische ecosysteem.
Carl Mörch - Co-manager - FARI • AI Institute for Common Good
Carl MörchCo-manager - FARI • AI Institute for Common Good
Ik coördineer FARI - AI Institute for Common Good. Dit project is een gezamenlijk initiatief van de Université Libre de Bruxelles (ULB) en de Vrije Universiteit Brussel (VUB). Ik ben ook een geassocieerd onderzoeker bij Algora Lab (UdeM, Mila, Canada) en een adjunct-professor (UQAM, Canada). Ik heb een AI Ethics Tool ontwikkeld en gepubliceerd, en ik werk aan het verantwoord gebruik van technologieën in de gezondheidszorg.
Rob Heyman - Directeur - Data & Maatschappij Kennis Centrum
Rob HeymanDirecteur - Data & Maatschappij Kennis Centrum
Hoe meer gedigitaliseerd we leven, hoe meer gepersonaliseerde beslissingen we krijgen op basis van onze informatie. Mijn doel is om te achterhalen hoe deze zaken werken en mensen te laten begrijpen wat er gebeurt met data. Ik vind het opmerkelijk dat er zo weinig bekend is over data in het tijdperk van big data. Mijn methode bestaat uit het blootleggen van het verborgen leven van data door deze processen in begrijpelijke teksten, scenario's en visuals in kaart te brengen. Vervolgens gebruiken we co-creatie sessies om de huidige praktijken af te stemmen op de verwachtingen van eindgebruikers, regelgevers of vernieuwers.
Yves Poullet - Voormalig rector van de Universiteit van Namen
Yves PoulletVoormalig rector van de Universiteit van Namen
Yves Poullet was rector aan de Universiteit van Namen (2010-2017). Hij is oprichter en voormalig directeur van CRIDS (1979-2009). Ook was hij twaalf jaar lid van de Privacybeschermingscommissie.
Nathanaël Ackerman - Manager BOSA - AI - Minds Team
Nathanaël AckermanManager BOSA - AI - Minds Team
Nathanaël Ackerman is de algemeen directeur van de AI4Belgium-coalitie en Digital Mind voor België, aangesteld door de Staatssecretaris voor Digitalisering. Hij is ook hoofd van het team 'AI - Blockchain & Digital Minds' voor de Belgische Federale Overheidsdienst Strategie en Ondersteuning (BoSa).

Beschrijving

Deze tool is ontworpen om teamleden met uiteenlopende expertise in staat te stellen samen te werken en gesprekken te voeren over belangrijke onderwerpen met betrekking tot de betrouwbaarheid van hun AI-implementatie.

Beoordeelde onderwerpen

  • 1. Fundamentele rechten Dit gedeelte benadrukt de noodzaak om fundamentele mensenrechten te respecteren bij de ontwikkeling en implementatie van AI-systemen. Het bevat richtlijnen om ervoor te zorgen dat AI-systemen geen inbreuk maken op menselijke waardigheid, privacy of andere fundamentele rechten.

  • 2. Menselijke controle en toezicht Dit gedeelte benadrukt het belang van menselijk toezicht bij AI-besluitvorming. Het biedt richtlijnen om ervoor te zorgen dat mensen de controle behouden over AI-systemen en dat beslissingen die door AI-systemen worden genomen, verklaarbaar en controleerbaar zijn.

  • 3. Technische robuustheid en veiligheid Dit gedeelte biedt richtlijnen om de technische robuustheid en veiligheid van AI-systemen te waarborgen. Het behandelt onderwerpen zoals systeembetrouwbaarheid, cyberbeveiliging en veerkracht.

  • 4. Privacy en gegevensbeheer Dit gedeelte richt zich op de noodzaak om persoonlijke gegevens te beschermen en een adequaat gegevensbeheer te waarborgen bij de ontwikkeling en implementatie van AI-systemen. Het biedt richtlijnen om ervoor te zorgen dat persoonlijke gegevens op een transparante en veilige manier worden verzameld, verwerkt en opgeslagen.

  • 5. Transparantie Dit gedeelte benadrukt het belang van transparantie bij AI-besluitvorming. Het biedt richtlijnen om ervoor te zorgen dat AI-besluitvormingsprocessen verklaarbaar zijn en dat gebruikers kunnen begrijpen hoe beslissingen worden genomen.

  • 6. Diversiteit, non-discriminatie en rechtvaardigheid Dit gedeelte biedt richtlijnen om ervoor te zorgen dat AI-systemen geen vooroordelen en discriminatie in stand houden. Het behandelt onderwerpen zoals gegevensvooringenomenheid, rechtvaardigheid in besluitvorming en inclusiviteit.

  • 7. Maatschappelijk en ecologisch welzijn Dit gedeelte benadrukt de noodzaak om rekening te houden met de maatschappelijke en ecologische impact van AI-systemen. Het biedt richtlijnen om ervoor te zorgen dat AI-systemen worden ontwikkeld en geïmplementeerd op een manier die het maatschappelijk en ecologisch welzijn bevordert.

  • 8. Verantwoordelijkheid Dit gedeelte biedt richtlijnen om verantwoordelijkheid te waarborgen bij de ontwikkeling en implementatie van AI. Het behandelt onderwerpen zoals wettelijke naleving, risicobeheer en betrokkenheid van belanghebbenden.

Met de steun van kabinet Michel en kabinet De Sutter.

GitHub