Universiteit Utrecht

12/13/2024 | Press release | Distributed by Public on 12/13/2024 04:26

“Om veilig en effectief te zijn, moet AI de werkelijkheid beter begrijpen”

"Om veilig en effectief te zijn, moet AI de werkelijkheid beter begrijpen"

Oratie Albert Gatt

13 december 2024

Albert Gatt, hoogleraar Natural Language Generation, hield zijn oratie op 9 december. Hij ging uitgebreid in op de complexe relatie tussen taal en de realiteit en concludeerde dat de huidige AI-modellen de werkelijkheid nog niet goed begrijpen. In zijn onderzoek wil Gatt dit begrip verbeteren, wat essentieel is voor effectieve en veilige AI. Gatt is in 2023 benoemd tot hoogleraar aan de Universiteit Utrecht.

Hoogleraar Albert Gatt

Centraal in Gatt's lezing stond het begrip grounding: het idee dat de betekenis van woorden niet alleen voortkomt uit hun relatie tot andere woorden, maar ook uit ervaringen en waarnemingen in de echte wereld. Hij stelt dat als AI-systemen taal echt willen begrijpen, ze de kloof tussen symbolische representaties (zoals woorden) en het niet-symbolische domein van waarneming, ervaring en feiten effectief moeten overbruggen.

Huidige staat van AI

Gatt benadrukt dat moderne AI-modellen, zoals ChatGPT en multimodale systemen zoals CLIP, indrukwekkende vooruitgang hebben geboekt in het verwerken van taal en beelden dankzij enorme datasets. Toch zijn deze systemen vaak niet helemaal grounded. Hoewel ze heel goed zijn in eenvoudige taken, zoals het herkennen van objecten, worstelen ze met abstractere concepten, zoals temporele relaties en complexe interacties tussen objecten.

Menselijke AI

Gatt legt uit dat zijn onderzoeksgroep naar nieuwe manieren zoekt om AI's begrip van de echte wereld te verbeteren. Eén manier om dit te doen is door te kijken hoe mensen beelden beschrijven en dit toe te passen op AI, waardoor AI menselijker wordt. Hoe beantwoorden mensen vragen als "Wat gebeurt er in dit plaatje?" of "Waarom gebeurt dit?". Uiteindelijk maakt dit AI-systemen intuïtiever en bewuster van context. Daarnaast maakt dit onderzoek AI begrijpelijker voor mensen; het laat zien waarom AI zich gedraagt zoals het zich gedraagt.

Desinformatie

De praktische toepassingen van AI nemen in rap tempo toe. Daarmee worden de gevolgen van fouten alsmaar groter. Zo kan een AI-model dat de werkelijkheid niet goed interpreteert, allerlei desinformatie verspreiden. Nu AI steeds meer geïntegreerd raakt in het dagelijks leven, is het doel van Gatt's onderzoek cruciaal: systemen ontwerpen die niet alleen intelligent klinken, maar ook echt de betekenis achter hun woorden begrijpen.