ChatGPT en andere AI op het werk: hiermee moet je opletten

7 november 2023 in
ChatGPT en andere AI op het werk: hiermee moet je opletten
VOV Lerend Netwerk
| Nog geen reacties

Je zou het misschien niet denken zo lang er geen uniforme of heldere regelgeving is omtrent het gebruik van AI, maar niet zomaar alles kan en mag wanneer je generatieve AI gebruikt binnen een bedrijfscontext. Na twee inspirerende VOV-Pitstops waarin we AI op een slimme en ethisch verantwoorde manier leerden inzetten in L&D, kijken we ook even naar de zaken waarmee je moet opletten wanneer je tools als ChatGPT gebruikt op het werk.

Rob Heyman, onderzoeker aan imec-SMIT-VUB en verbonden aan FARI en Kenniscentrum Data & Maatschappij, deed tijdens onze Pitstops reeds uitgebreid uit de doeken hoe we op een ethisch verantwoorde en juridisch correcte manier met Artificiële Intelligentie kunnen omspringen als L&D-professionals. Ook tijdens buitenlandse conferenties zoals EDUtech Europe doken we niet alleen in de mogelijkheden van generatieve AI, maar werden we evenzo gewaarschuwd voor de gevaren en mogelijk juridische gevolgen die verkeerd gebruik ervan met zich mee kan brengen. We zetten enkele daarvan even voor je op een rijtje.

1. Maak geen inbreuk op het veiligheids- en privacybeleid van je bedrijf

Let op met de gegevens die je invoert in OpenAI-technologieën zoals ChatGPT. Op het delen van gepatenteerde informatie of vertrouwelijke bedrijfsinformatie staan bijvoorbeeld zware straffen. En ChatGPT verzamelt alle informatie die je ingeeft, ook zaken zoals je IP-adres, je browsersettings, de prompts die je gebruikt en de manier waarop je omgaat met de tool, zodat het hiervan kan leren. Op deze manier zou het wel eens gevoelige informatie kunnen ‘lekken’ bij toekomstig gebruik.

Ga dus na of je bedrijf al een AI-beleid heeft voordat je met de tool aan de slag gaat. Rob Heyman stelde tijdens zijn sessie op de VOV-Pitstop dat de huidige (bedrijfs)richtlijnen over het omgaan met data en vertrouwelijke (bedrijfs)informatie ook gewoon van toepassing zijn bij het gebruik van AI, want AI is technologie. Heeft je bedrijf of organisatie nog geen AI-beleid, kijk dan zeker eens naar het huidige veiligheids- en privacybeleid van je organisatie en pas dit toe wanneer je generatieve AI gebruikt in een bedrijfscontext.

Twijfel je over de regelgeving of heb je ondersteuning nodig, bijvoorbeeld bij de interpretatie van de AI Act? Je kan zoals bij VDAB een ethische raad oprichten die meekijkt bij belangrijke beslissingen. Of je juridisch laten bijstaan door een goede advocaat.

2. Let op met foutieve informatie én bronvermeldingen

Ondertussen weten we allemaal dat generatieve AI (nog) niet omnipotent is. En dus fouten kan maken. Wees daarom steeds kritisch wanneer je informatie gebruikt die je verkrijgt via ChatGPT of andere AI-tools. Ook wanneer het om bronvermeldingen gaat. Foutieve bronvermeldingen of referenties in onderzoeksrapporten, bijvoorbeeld, doen al snel twijfelen aan de betrouwbaarheid van het hele rapport (en de persoon die het gemaakt heeft of de organisatie waaraan die verbonden is).

Christophe Benoit, onderzoeker bij het Kenniscentrum Artificiële Intelligentie van de Erasmushogeschool Brussel, stelde tijdens de VOV-Pitstop dat transparantie bij het gebruik van generatieve AI erg belangrijk is. Ook Rob Heyman benadrukte dit in een juridisch kader. Geef dus altijd aan wanneer of op welke manier je ChatGPT of andere vormen van generatieve AI gebruikt (hebt) in je werk.

3. Wees je bewust van seksuele bias

Ook hier hebben we allemaal al van gehoord: generatieve AI maakt gebruik van datasets die bias kunnen bevatten, waardoor de uitkomst van de tool ook bias kan bevatten. We zien dit vaak in een discriminerende context, maar moeten ons ook bewust zijn van de seksualiserende aard van generatieve AI.

Dit voorbeeld werd gegeven tijdens EDUtech Europe: vraag generatieve AI om een vrouwelijke collega te genereren en de tool zal haar waarschijnlijk een riante boezem geven en een aantrekkelijk gezicht, compleet met zoetgevooisde stem. Mannen zullen dan weer brede schouders hebben en licht gespierd zijn, bijvoorbeeld. Ook hier moeten we ons van bewust zijn wanneer we deze middelen inzetten in een professionele context. En zeker wanneer er kinderen bij betrokken zijn, zoals in scholen bijvoorbeeld.

Let verder op met politieke bias. Ook dit kan gevoelig liggen binnen een bedrijfscontext.

4. Maak geen inbreuk op auteursrecht

Generatieve AI zoals ChatGPT maakt gebruik van alle openbare bronnen op het internet. Je weet dus nooit of de gegenereerde tekst letterlijk overgenomen werd, zonder vermelding erbij. Door deze informatie van de tool over te nemen, zou je dus wel eens auteursrechten kunnen schenden. Ook hier staan straffen op.

Twijfel je over een bepaalde quote of passage, zoek het dan zeker op voordat je het overneemt in je werk.

Kan jij deze lijst aanvullen? Laat een bericht achter in de comments hieronder, zo leren we bij van elkaar en houden we het gebruik van genAI in L&D veilig en correct!

Deel deze post
Aanmelden om een reactie achter te laten