Pålitlighet av stora språkmodeller meddelst förklarbar AI
- Diarienummer
- ID24-0097
- Projektledare
- Törngren, Martin
- Start- och slutdatum
- 250101-291231
- Beviljat belopp
- 3 250 000 kr
- Förvaltande organisation
- KTH - Royal Institute of Technology
- Forskningsområde
- Informations-, kommunikations- och systemteknik
Summary
Projektmålet är att utveckla nya algoritmer för att säkerställa tillförlitlighet, korrekthet och förklarbarhet av stora språkmodeller (LLMs). Forskningen handlar om tillförlitlighet av LLMs med hjälp av förklarbara AI (XAI) algoritmer inom telekom. Vi kommer att undersöka hur XAI för LLMs kan kombineras med promptbaserade tekniker för att generera anpassade förklaringar med inga eller små konflikter så att korrektheten kan förklaras och användarens förtroende stärkas. Arbetet kommer också att utöka feedbackmekanismer med state-of-the art XAI-tekniker för att förbättra modellens robusthet (och LLM-tillförlitlighet) i föränderliga miljöer. Designen av nya förklarbara algoritmer, samt implementering och utvärdering av dem i realistiska telekomtjänster och levande nätverk, utgör väsentliga delar av projektet. För första gången kommer sådana algoritmer att testas i verkliga nätverksprodukter och deras förklaringsmöjligheter utvärderas av nätverksutvecklare och operatörer. Med detta fokus har projektet potential att få både strategisk vetenskaplig och industriell inverkan. Forskarna bakom förslaget är på högsta internationella nivå, med expertis inom förklarbar AI, LLMs och pålitlighet hos komplexa AI-baserade cyber-fysiska system, som vidareutvecklar befintligt samarbete mellan Ericsson och KTH. Projektet kommer att dra nytta av interaktioner med TECoSA-centret (www.tecosa.center.kth.se) med relaterade ämnen och ett starkt nätverk av industriella partners och forskare.
Populärvetenskaplig beskrivning
Målet med detta projekt är att skapa nya metoder som gör stora språkmodeller (LLMs) mer pålitliga, exakta och begripliga. LLMs är avancerade datorprogram som kan generera och förstå mänskligt språk, och används inom många områden, inklusive telekommunikation. Projektet kommer att försöka göra dessa modeller mer tillförlitliga genom att utveckla sätt att förklara hur de fungerar. Detta kommer att hjälpa användare att förstå varför modellerna ger vissa svar, vilket gör det lättare att lita på dem. Vi kommer också att undersöka hur dessa förklaringar kan kombineras med befintliga tekniker för att säkerställa att de är tydliga och konfliktfria. Projektet kommer att testa dessa nya förklaringsmetoder i verkliga telekomtjänster och levande nätverk för första gången. Nätverksutvecklare och operatörer kommer att utvärdera hur bra dessa förklaringar fungerar i praktiken. Denna praktiska testning är avgörande för att säkerställa att metoderna är effektiva i verkliga förhållanden. Teamet som arbetar med detta projekt inkluderar ledande internationella experter inom förklarbar AI, LLMs och tillförlitligheten hos komplexa AI-system. De kommer att samarbeta nära med TECoSA-centret, som samlar industriella partners och forskare som arbetar med liknande ämnen. Sammanfattningsvis syftar detta projekt till att göra betydande vetenskapliga och industriella bidrag genom att förbättra pålitligheten och förståelsen av LLMs inom telekommunikation.