I en tid där artificiell intelligens snabbt utvecklas och integreras i olika aspekter av samhället, är det viktigt att förstå de etiska, juridiska och tekniska utmaningar som följer. Under första delen av Lindahls stora webbinarserie om AI gav vi en introduktion till dessa frågor och här sammanfattar vi några av huvudpunkterna från seminariet.
AI har en lång och varierad historia, från Turingtestet 1950 till dagens avancerade generativa AI-modeller som, med ChatGPT i täten, slagit igenom på bred front. Efter en period av stagnation, känd som AI-vintern, har teknologin gjort en stark comeback sedan sent 1990-tal, och idag används AI i allt från digitala assistenter som Siri och Alexa till avancerade språkmodeller (LLM).
Det finns olika typer av AI och dessa kategoriseras baserat på dess förmåga och funktionalitet, allt från snäv och uppgiftsspecifik AI till självkörande bilar.
Generativ AI
Generativ AI är en specifik typ av AI som kan skapa originellt innehåll baserat på användarens input och tränas på enorma mängder data. Generativ AI har potential att förändra många branscher, men den medför också betydande utmaningar, både etiska och hållbarhetsmässiga. Ur hållbarhetsperspektiv är det viktigt att vara medveten om att generativ AI drar stora mängder energi och dessutom ökar förbrukningen av sötvatten i världen som krävs för kylning av datacenter. Enligt experter använder en interaktion med en stor språkmodell (LLM) närmare tio gånger så mycket el som en vanlig sökning på Google, och att be GPT-4 författa ett mail på 100 ord kräver runt 0,5 liter (!) vatten.
De mest kända generativa AI-modellerna är just stora språkmodeller som GPT (som används i ChatGPT) för att generera text men det finns även språkmodeller för andra ändamål som bilder, video, ljud etc. Generativa modeller kan också finjusteras för specifika användningsområden, såsom medicinsk diagnostik eller juridisk rådgivning.
AI bias – risken för partiskhet och felaktiga beslut
AI bias, dvs partiskhet, är en av de största utmaningarna inom AI. Bias kan förstärkas av AI-system och leda till felaktiga och partiska beslut. Några av riskerna är:
Påverkan från felaktig information
- AI lär sig från data på internet, vilket kan inkludera propaganda och desinformation.
- Om vissa åsikter eller snedvridna påståenden är vanliga i datan, kan AI anta att de är sanna.
Spegling av samhälleliga ojämlikheter
- AI kan dra felaktiga slutsatser baserat på obalanserad statistik eftersom den saknar förståelse för sociala och historiska sammanhang.
Exempel: Om det finns färre personer från en viss grupp i höga chefsposter, kan AI felaktigt anta att de är mindre lämpade att vara chefer.
Hallucinering – när AI hittar på fakta
- Generativ AI kan skapa övertygande men osanna svar, ofta genom sin presentation av informationen.
Exempel: När en AI får frågan om att namnge den första kvinnliga presidenten i USA och svarar; ”Den första kvinnan som blev president i USA var Julia Wilson, som tillträdde posten 1921."
För att bekämpa AI bias krävs både kortsiktiga och långsiktiga lösningar, inklusive tekniska metoder och ökad medvetenhet.
Hur kan ni framtidssäkra er AI-användning?
Sammanfattningsvis är AI en kraftfull teknologi med potential att förändra samhället i grunden. Men för att säkerställa att denna förändring är positiv, måste vi noggrant överväga de etiska och juridiska implikationerna av dess användning.
En stor del av den pågående diskussionen om AI handlar lika mycket om möjligheterna som utmaningarna, inte minst ur ett etiskt och juridiskt perspektiv.
Samtidigt är området svårt att hantera för organisationer, på grund av snabb teknisk och legal utveckling. Ett av de ett av de första råden vi brukar ge är att så snart som möjligt sätta samman ett grundläggande etiskt hållbart förhållningssätt till AI inom organisationen. I sin mest enkla form går det att utgå från en form av etisk AI-kompass med fyra huvudområden:
- transparens - t.ex. i förhållande till kunder avseende användningen av AI
- säkerhet och ansvar - t.ex. compliance till applicerbara riktlinjer och lagstiftning
- hållbarhet - t.ex. säkerhetsställa etiska leverantörer av AI-tjänster
- medvetenhet - t.ex. internt arbetssätt och approach till AI i organisationen
Ovan nämnda grundprinciper syftar till att säkerställa att AI används på ett rättvist och ansvarsfullt sätt, men bör också anpassas till den specifika organisationens behov
Advokatfirman Lindahls experter har betydande erfarenhet att bistå företag med rådgivning gällande hur man bäst navigerar i detta komplexa landskap, där ovan nämnda principer ofta måste anpassas efter just din organisations behov. Tveka därför inte att kontakta en av våra AI-experter nedan för att se hur vi kan hjälpa er!
Vi ser fram emot att fortsätta utforska AI, etiken och juridiken i kommande delar av vår serie - läs mer och anmäl dig här!