De Universiteit Twente werkt aan een eigen taalmodel, een vorm van kunstmatige intelligentie die lijkt op ChatGPT. Het model is bedoeld voor gebruik binnen de UT, vooral om de veiligheid van onderwijs- en onderzoeksdata beter te waarborgen.
Het initiatief komt van het Digital Society Institute binnen de UT, in samenwerking met de IT-afdeling en wetenschappers. De bedoeling is dat het model dit najaar beschikbaar is voor studenten en medewerkers. De techniek wordt gebouwd op bestaande, open-source AI, maar draait straks in eigen beheer.
Een LLM is een type kunstmatige intelligentie dat getraind is op grote hoeveelheden tekst. Het kan vragen beantwoorden, teksten samenvatten, programmeren en meer. Bekende voorbeelden zijn ChatGPT en Google Gemini. De UT werkt aan een eigen, veilige versie van zo’n model.
“Het gaat ons vooral om controle,” zegt Stephanie Hessing van het Digital Society Institute. Ze doelt op grote commerciële AI-tools zoals ChatGPT, waar volgens haar te weinig grip is op wat er met ingevoerde data gebeurt. “Wat je wil voorkomen is dat wetenschappers, docenten en studenten van alles en nog wat in ChatGPT gooien, en dat daar vervolgens misbruik van wordt gemaakt. Dat risico is zeer aanwezig.”
Daarom adviseert de UT nu al om alternatieve modellen te gebruiken, zoals Mistral, en instellingen zo te zetten dat ingevoerde data niet worden opgeslagen of gebruikt voor verdere training. “Met een eigen model kun je die gevoeligheid beter afvangen,” aldus Hessing.
Ze ziet ook een bredere rol voor de universiteit. “Er zijn meer organisaties die met gevoelige data werken, denk aan ziekenhuizen. Wij kunnen laten zien hoe je AI kunt inzetten zonder de controle kwijt te raken.”
Ook adjuct-hoogleraar Maurice van Keulen ziet de voordelen. Binnen zijn vakgroep werkte hij al met een AI-model op basis van open source, dat draait op een eigen server. “AI is een krachtige technologie. Je moet er zorgvuldig mee omgaan, maar niet afremmen. De campus kan een mooie proeftuin zijn.”
Toch is er discussie. Afgelopen week verscheen een open brief, mede ondertekend door UT-wetenschappers, die waarschuwen voor het te snel invoeren van AI in het onderwijs. Ze pleiten voor duidelijke richtlijnen en meer ethische reflectie.
Hoewel het enthousiasme bij de initiatiefnemers groot is, zijn nog niet alle vragen beantwoord. Bijvoorbeeld: hoe wordt het model precies gebouwd? Waar wordt het gehost? En wie bepaalt wat wel en niet mag? Over die keuzes wordt de komende maanden verder nagedacht.
Hessing benadrukt dat snelheid belangrijk is, maar niet ten koste van zorgvuldigheid. “De technologie ontwikkelt zich razendsnel. We kunnen het ons niet permitteren om stil te blijven staan, maar moeten tegelijk goed nadenken over wat we bouwen.”