Go to content
SV På svenska

Reliability of LLMs using Explainable AI

Reference number
ID24-0097
Project leader
Törngren, Martin
Start and end dates
250101-291231
Amount granted
3 250 000 SEK
Administrative organization
KTH - Royal Institute of Technology
Research area
Information, Communication and Systems Technology

Summary

The project objective is to develop novel algorithms to ensure reliability, correctness and explainability of Large Language Models (LLMs). The research concerns trustworthiness of LLMs using explainable AI (XAI) algorithms in the telecom domain. We will investigate how XAI for LLMs could be combined with prompt-based techniques to generate aligned explanations with no or small conflicts so that the correctness can be explained, and user trust improved. The work will also extend feedback mechanisms with state-of-the-art XAI techniques to improve model robustness (and LLM reliability) in changing environments. The design of novel explainable algorithms, and implementing and evaluating them in realistic telecom services and live networks, form essential parts of the project. For the first time, such algorithms will be tested in real network products and their explanation capabilities evaluated by network developers and operators. With this focus, the project has the potential to make both strategic scientific and industrial impact. The proposal team is at the highest international level, with expertise in Explainable AI, LLMs, and trustworthiness of complex AI-based systems, leveraging existing Ericsson-KTH collaboration. The project will benefit from interactions with the TECoSA center (www.tecosa.center.kth.se) with related topics and a strong network of industrial partners and researchers.

Popular science description

Målet med detta projekt är att skapa nya metoder som gör stora språkmodeller (LLMs) mer pålitliga, exakta och begripliga. LLMs är avancerade datorprogram som kan generera och förstå mänskligt språk, och används inom många områden, inklusive telekommunikation. Projektet kommer att försöka göra dessa modeller mer tillförlitliga genom att utveckla sätt att förklara hur de fungerar. Detta kommer att hjälpa användare att förstå varför modellerna ger vissa svar, vilket gör det lättare att lita på dem. Vi kommer också att undersöka hur dessa förklaringar kan kombineras med befintliga tekniker för att säkerställa att de är tydliga och konfliktfria. Projektet kommer att testa dessa nya förklaringsmetoder i verkliga telekomtjänster och levande nätverk för första gången. Nätverksutvecklare och operatörer kommer att utvärdera hur bra dessa förklaringar fungerar i praktiken. Denna praktiska testning är avgörande för att säkerställa att metoderna är effektiva i verkliga förhållanden. Teamet som arbetar med detta projekt inkluderar ledande internationella experter inom förklarbar AI, LLMs och tillförlitligheten hos komplexa AI-system. De kommer att samarbeta nära med TECoSA-centret, som samlar industriella partners och forskare som arbetar med liknande ämnen. Sammanfattningsvis syftar detta projekt till att göra betydande vetenskapliga och industriella bidrag genom att förbättra pålitligheten och förståelsen av LLMs inom telekommunikation.