AI og ChatGPT.
Det er noget, som vi i dag ikke kan komme udenom - det er fremtiden! Og vi spår, at det er noget, vi vil komme til at se meget mere til. For allerede mens du læser det her, sker der noget nyt inden for området. Men hvad betyder det for din sikkerhed og dit privatliv, når robotterne bliver så kloge?
Vi hører om det alle vegne - både positivt og negativt, og vi bliver bedt om at forholde os til værktøjerne. Du har sikkert også allerede forsøgt dig frem med ChatGPT eller nogle af de mange andre AI-værktøjer og -modeller. Men har du tænkt over, hvad der sker med alt det content, du deler med og skaber gennem de her værktøjer? Hvem får adgang til informationen, og kan andre udnytte det til deres egen fordel?
Hvor der er muligheder, er der også altid faldgruber, og det er noget, som kriminelle er hurtige til at reagere på. Så hvad med dem? Hvad har de lige nu af AI-værktøjer, der kan hjælpe dem med deres lyssky beskæftigelse?
For at besvare spørgsmålet er vi nødt til at dykke ned i et enkelt værktøj.
I det her tilfælde vælger vi at tage et nærmere kig på ChatGPT - særligt fordi ChatGPT i skrivende stund er den mest udbredte AI-service. Men de samme principper, som forklares, gør sig gældende for mange af de andre AI-services.
Spørgsmålet bør derfor i stedet lyde; Hvor ender min prompt/besked, når jeg spørger ChatGPT om noget?
Når du interagerer med ChatGPT, indtaster du en besked, det kan være et specifikt spørgsmål, og trykker send. Beskeden ender så i ChatGPT’s AI/model, hvor den behandles, så modellen bliver i stand til at sende et svar retur til dig.
Hvis du vil læse mere om, hvordan hele den proces fungerer, så tag et kig i et af vores tidligere blogindlæg her.
Den besked og generelt den korrespondance, du fører med ChatGPT, bliver gemt af OpenAI, som er virksomheden bag ChatGPT. Beskeden ender derfor i deres massive databeholdning, hvor den bruges til at træne ChatGPT yderligere.
Når du interagerer med ChatGPT, bliver hele din tråd således anvendt til at gøre modellen klogere, og derfor bliver ChatGPT konstant og meget hurtigere klogere.
“Men, hvad er så problemet i det?” tænker du måske. For er det ikke bare en fordel, at den næste version bliver klogere, og dermed i stand til at give os endnu bedre og mere korrekte svar? På den måde vil ChatGPT nemlig blive meget mere relevant i flere sammenhænge.
Og jo, ChatGPT bliver klogere, og det betyder, at du kan udnytte den yderligere i din hverdag og i dit arbejde.
Men den vil nu også kende til dine spørgsmål, opfølgende spørgsmål samt de svar, der er blevet givet. Og har der været tale om en ‘samtale’ af mere personlig art, kan en person med onde hensigter prompte den nye version og dermed indirekte få en viden om dig.
Der er her tale om det, som der kaldes for ‘prompt injecting’.
“Men ja ja, slap lige af. Jeg har ikke noget at skjule, så hvorfor har det betydning for mig?” kan det så være, at du nu spørger. Og her kan vi kun give dig ret. Mange af de samtaler, der føres med ChatGPT har absolut ingen betydning for dit privatliv. Og selvom du har spurgt ind til mere personlige ting - det kan fx være ift. sygdom og symptomer, så er der nok mange, der har den samme lidelse. “Og jeg har jo heller ikke givet mit navn…”, så er det virkelig vigtigt for dig?
Et tænkt eksempel kan være, at du bruger ChatGPT på din arbejdsplads. Her kan du helt ubevidst komme til at lække vigtige oplysninger om dit arbejde, om din arbejdsplads og måske også de kunder, du har med at gøre. Og ups, så har vi problemet!
Det betyder nemlig, at du helt uden at vide det, kan komme til at lække vigtig data. Og problemet bliver blot større, hvis du sidder i en stilling som fx programmør, eller du generelt har med kodning at gøre.
Der kan være mange problemer forbundet med det at skrive kode og søge hjælp hos ChatGPT. For selvom det kan virke utrolig smart og også effektivisere dit arbejde at bruge ChatGPT til at kode - især hvis det sammensættes med ChatGPT functions, så skal du være særligt påpasselig.
Lad os tage et lidt nærmere kig på nogle spændende scenarier (og husk her den viden, du har fået ift., hvor beskederne vi sender til ChatGPT, ender):
Passwords
Meget kode skal i dag kunne snakke sammen med en eller anden form for service. Og for at kunne lykkes med det, er der behov for et login, som der i langt de fleste tilfælde er et både langt og besværligt password.
Beder du ChatGPT skrive noget kode for dig, der kan snakke sammen med en eller flere af disse services, kan du hurtigt komme til at sende dit password med. Det vil så nu være lækket og klar til brug i den næste version af ChatGPT, hvor det frit kan findes frem af andre brugere.
Forretningshemmeligheder
I forbindelse med dit arbejde kan du opleve tvivlsspørgsmål til din kode. Og her kan det være ideelt at søge hjælp hos ChatGPT. For at gøre processen så effektiv som muligt, kan det virke let at kopiere hele din kode ind i prompten for på den måde at få et hurtigt og korrekt svar.
Fejlen er så, at den kode et eller andet sted kan indeholde hemmelig data. Det kan fx være i form af en forretningslogik. Og den kender ChatGPT så nu, den trænes i logikken, og i den næste version kan den findes til fri afbenyttelse for andre brugere.
Fejl i kode
Som du nok allerede har opdaget, skal du være ret præcis i den besked, du sender til ChatGPT, hvis du vil være sikret et svar, der rent faktisk giver mening. Og er der tale om kode, så skal du være meget mere omhyggelig.
Og det gælder også i det svar, som du får tilbage. Koden, som du formentlig har fået justeret til efter dine ønsker, kan nemlig nemt indeholde fejl, da ChatGPT ikke kender konteksten for din kode. Og måske gør du det heller ikke selv, hvorfor det kan være svært at beskrive 100%, hvad du gerne vil have retur i prompten.
ChatGPT er trænet i generel og basal kode, der kan findes på internettet. Og der er ingen garanti for, at alt, hvad der findes online, er helt fejlfrit.
Kode med onde hensigter
ChatGPT har behov for rigtig mange forskellige eksempler på kode, før modellen bliver i stand til at generere noget kode, som rent faktisk virker, som det skal. Derfor henter OpenAI en lang række open source projekter og kode-forums ned til ChatGPT, som den kan trænes på.
Her kan vi så kun håbe, at der vælges projekter med lidt vetting - det kan fx være på antal af stjerner på GitHub.
I det offentlige rum findes der også mange eksempler på kode til fx malware, som the good guys kan studere (her kigger the bad guys selvfølgelig også med). Det gør dog, at meget kode indeholder fejl og nogle koder kan endda være usikre - også selvom det måske ikke lige kan ses ved første øjekast. Når du beder ChatGPT om at skrive noget kode, bør du altså forholde dig til en høj fejlmargin.
I dag oplever vi også, at mange udviklingsværktøjer gør det muligt for dig at bruge AI til at generere kode. Tit vil du dog have mulighed for selv at styre, om den specifikke kode må bruges til træning - funktionen kan betyde, at du må af med et mindre beløb, som det også er tilfældet med Githubs Copilot.
Uanset hvad, så er rådet altid det samme. Vær påpasselig med den kode, du giver de forskellige systemer, sørg for at tjekke den kode du får retur grundigt igennem og forstå den, før du anvender den.
Nu vil du sikkert gerne vide, hvad du bør gøre for at sikre, at dine oplysninger ikke havner i hænderne på de forkerte. Og heldigvis er der 2 metoder, du kan benytte dig af.
Benytter du dig af ChatGPT, findes der også en Enterprise-version. Denne har bl.a. et højere fokus på sikkerhed og privatliv.
Mange af de andre AI-services har lignende funktion.
Bruger du ChatGPT til at generere kode, kan du med fordel benytte dig af den samme funktion. Dog vil det ikke løse problemet med dårlig eller ond kode. Her er der ingen anden vej end at sørge for at kigge din kode grundigt igennem og at forstå den 100%, inden du anvender den til et reelt formål.
For at være helt på den sikre side, kan du også få en anden programmør eller person med flair for at kode til at kigge din kode igennem for dig eller sammen med dig.
Du skal huske, at det i sidste ende er dig selv, der har ansvaret for den kode, som du vælger at bruge. Derfor er du også ansvarlig, hvis der er fejl eller huller i koden, som kan lækkes, eller som kan lægge dit miljø ned.
Som vi skrev tidligere, så er der kriminelle der, hvor der er faldgruber. Og med nye muligheder følger der altid en række faldgruber med - desværre. Derfor har cyber-kriminelle selvfølgelig også gjort sit indtog ift. AI.
Og de holder sig ikke til de konventionelle AI’s, som vi andre bruger til gode formål.
De kriminelle har allerede udviklet en række forskellige AI’s, der kan bruges til deres mere lyssky formål.
Tager du et kig ude på ‘the dark web’ - altså der, hvor mange kriminelle hænger ud, når de er online, så vil du også falde over AI’s, der har til formål bl.a. at lave malware, finde ukendte og nye huller i systemer og yde god gammeldags phishing/scam-hjælp.
Der er ikke meget, du kan gøre for at beskytte dig mod disse - endnu. Det er nedslående nyt, men det betyder blot, at du skal være ekstra opmærksom online. Du skal holde øje med potentielle scam/phishing forsøg, kigge din infrastruktur grundigt igennem og skrue helt op for sikkerheden der, hvor du allerede nu ved, at den halter. Der er nemlig næsten altid steder, hvor der kan forbedres på sikkerheden - sæt derfor gang i et gennemsyn med det samme.
Heldigvis bliver der også arbejdet på helt lovlige AI’s, der kan afhjælpe scam/phishing samt finde de huller, der måtte være i din sikkerhed. Det betyder, at du også vil kunne få den nødvendige hjælp til at lukke hullerne.
Disse AI’s kommer fra anerkendte virksomheder inden for sikkerhed - det være sig fx Snyk, Check Point og Sophos.
Derfor er der håb forude!