Er DeepSeek sikkert?

2025-01-30

De siste dagene har selskapet DeepSeek lansert sin AI-modell DeepSeek-R1, noe som har vekket stor oppmerksomhet. Den er teknisk interessant, men dens opprinnelse i et kinesisk selskap har skapt usikkerhet rundt hvordan den kan brukes.

Bruk av nettjenester – alltid en risiko

For det første bør man alltid være forsiktig når man bruker nettjenester. Dataene som sendes til tjenestens servere kan tjenesteleverandøren i prinsippet gjøre hva de vil med, spesielt når det gjelder gratiskunder.

Som betalende kunde har man en avtale med tjenesten, og i den kan det stå at de ikke lagrer eller på annen måte bruker dataene man sender dit. Slike klausuler er ganske vanlige. Men som med alle løfter må man tenke på hvor mye man stoler på dem.

Man må også ta hensyn til risikoen for at data brukes på andre måter eller deles videre til andre aktører. Teknologiselskaper har noen ganger tette samarbeid med sine lands militær og sikkerhetstjenester, noe som kan være en relevant faktor å vurdere.

Bruk av egen maskinvare – en annen situasjon

Hvis man kjører modellen på egen maskinvare, er situasjonen litt annerledes. DeepSeek-R1 er såpass lettkjørt at den kan lastes ned og kjøres med rimelige ressurser. Det finnes eksempler på personer som har startet den på en haug med Mac Mini, noe som både er kreativt og imponerende.

Bør ikke dette være risikofritt? Nja. En AI-modell som denne består ikke bare av data (vektene den har lært under trening), men også av kode.

I denne koden kan det teoretisk sett ligge tekniske bakdører – for eksempel funksjoner som samler data og sender dem et annet sted.

Kode fra eksterne kilder – alltid et tillitsspørsmål

Risikoen for skjulte funksjoner er selvfølgelig ikke unik for dette tilfellet. Når man installerer kode skrevet av andre, stoler man på at den ikke inneholder uventede funksjoner.

Vi stoler på den som har levert operativsystemet, den som har utviklet tekstbehandleren eller regnearket, og den som står bak alle de små verktøyene vi installerer jevnlig. Men denne tilliten er aldri gitt – og det gjelder også AI-modeller.

Beskyttelsestiltak – sandbox og overvåkning

Hvis man kjører en AI-modell eller annen programvare man ikke er helt sikker på, bør det skje i en sandbox hvor man nøye overvåker hva den gjør.

For eksempel bør man sjekke om modellen prøver å koble seg til nettet eller lagre data på disk. Det kan også finnes skjulte funksjoner som aktiveres først etter en viss tid eller ved spesifikke hendelser.

Open source reduserer risikoen, men eliminerer den ikke

Siden DeepSeek-R1 er open source, er risikoen for skjulte funksjoner trolig noe mindre. Så langt er det ikke rapportert om slike funn, verken for R1 eller den tidligere utgitte V3.

Det ville dessuten være svært skadelig for DeepSeeks rykte om de ble tatt i å smugle inn trojanere i en modell som har fått så stor oppmerksomhet.

Konklusjon – ”det kommer an på”

Så, er DeepSeek sikker? Som alltid er svaret: det kommer an på.

  • Det kommer an på hvilke data man bruker.
  • Det kommer an på hvilken driftsmiljø man kjører modellen i: hostet av noen andre, i et sky-miljø der man selv installerer den, eller on-premises.
  • Det kommer an på hvordan man overvåker den.
  • Det kommer an på andre faktorer som er unike for deg og din bruk.

For alle disse faktorene må man analysere hvilke trusler som finnes og hva som kan eksponeres. DeepSeek er definitivt ikke noe man bør stole blindt på, men det finnes absolutt måter å prøve modellen på og evaluere funksjonaliteten.

Innsikter

Les flere artikler

Alle artikler