Kristina Knaving
Fokusområdesledare Den uppkopplade individen-Senior forskare och interaktionsdesigner
Kontakta Kristina12 september 2023, 15:36
Hur kan man säkerställa information, för att avgöra om den är sann och korrekt?
AI är här för att stanna, den kommer inte ta jobben ifrån oss men vissa yrkeskategorier kommer att förändras, det ser vi redan idag. Alltmer information som produceras är AI-genererad, och det blir allt viktigare att säkerställa att AI förblir en tillgång för samhället och inte ett hot. Vi matas dagligen av information, och att det vi konsumerar är korrekt och sant är viktigt för media, skola, politik, individen och inte minst forskningen. Olyckligtvis är det inget som säger att en text är korrekt för att den producerats av en människa. Desinformation, falska texter, videos och bilder är hot som kan påverka samhälle och trovärdighet.
En lösning är vattenmärkning av text genererad av språkmodeller, som tex Chat GPT. Med hjälp av verktyg som kan upptäcka om en text är skriven av AI, skulle man kunna säkerställa avsändaren av en text, AI vs. människa, vilken kan vara en viktig lösning för tex lärare som ska betygsätta inlämningsuppgifter. För att detta ska vara möjligt så kan man träna en språkmodell på data där AI-genererad text och mänsklig text jämförs, något som man redan har börjat testa, vilket idag inte är hundra procent tillförlitligt. Ett problem är att vattenmärkning bara fungerar för system som omfattas av den regleringen. Texter som, till exempel, skapats i andra länder som inte kräver detta, eller av aktörer som inte bryr sig, kommer fortfarande finnas i omlopp. Sannolikt kommer det att vara mycket svårt – kanske tom omöjligt – att automatiskt klassificera information genererad av ett system man inte haft tillgång till för att testa.
Utöver vattenmärkning så finns även förslag på att kräva att chatt botar presenterar sig som just botar (Schibbolet-regeln), så att de som interagerar vet att det inte är frågan om mänsklig kontakt.
— RISE forskar på AI i sig självt, men har också forskningsgrupper som jobbar med AI och etik, samhällspåverkan av AI, mediekritik, och sist men inte minst, hur individer och organisationer på bästa sätt drar nytta av AI:ns potential, berättar Kristina Knaving som är forskare inom AI och etik på RISE.
— Det bästa skyddet vi har mot desinformation är ett väl fungerande demokratiskt samhälle, med utbildning, trygghet och tillgång till god information. Det finns redan mycket fake news och overifierad information på internet. Det som kommer hända med AI är att mängden falska texter, bilder och videos ökar hastigt och då blir det ännu viktigare att organisationer och individer vet hur de kan hitta verifierad information, fortsätter Kristina.
Andra metoder för att säkerställa att information är korrekt, används bland annat inom journalistiken. Nyhetsredaktioner inför AI-policys som ska garantera att all information som publiceras i slutänden granskas och kvalitetssäkras av en människa, inklusive material som är framtaget med hjälp av, eller baserat på, AI. AI används ofta för sammanfattningar av nyheter, textning av videos och transkribering av ljud till text.
Det gäller även att som individ lära sig att vara källkritisk. Här har skolan en viktig roll, något som RISE slår fast i AI-Agendan (förslag 15). Det är även bra att som organisation skapa sina egna förhållningssätt till AI, både genom att definiera vilka områden det kommer att påverka och vilken intern policy man vill ha i dessa frågor.
Fokusområdesledare Den uppkopplade individen-Senior forskare och interaktionsdesigner
Kontakta Kristina2024-10-29
2024-09-09
2024-09-03
2024-09-02
2024-08-06
2024-04-30
2024-04-29
2024-03-19
2024-02-06
2023-11-15
2023-10-02
2023-09-12
2023-08-23
2023-06-19
2023-06-19
2023-06-02
2023-05-17
2023-05-09
2023-04-27
2023-04-05
2023-04-04
2023-04-04
2023-03-29
2023-03-16
2023-01-31
2023-01-30
2022-12-06
2022-11-15
2022-10-24
2022-10-21
2022-10-20
2022-10-19