I løpet av de siste årene har reguleringsmyndigheter blitt tatt på sengen gang på gang, ettersom teknologiselskaper konkurrerer om å lansere stadig mer avanserte AI-modeller. Det er bare et spørsmål om tid før laboratorier slipper en ny runde modeller som utgjør nye regulatoriske utfordringer. Vi er sannsynligvis bare få uker unna, for eksempel, fra OpenAI lanserer ChatGPT-5, som lover å presse AI-ferdigheter lenger enn noen gang før. Per nå ser det ut til at det er lite noen kan gjøre for å forsinke eller forhindre utgivelsen av en modell som utgjør store risikoer.
Testing av AI-modeller
Testing av AI-modeller før de slippes er en vanlig tilnærming for å redusere visse risikoer, og det kan hjelpe reguleringsmyndigheter med å vurdere kostnader og fordeler – og potensielt blokkere modeller fra å bli utgitt hvis de anses for farlige. Men nøyaktigheten og fullstendigheten av disse testene etterlater mye å ønske. AI-modeller kan “sandbagge” evalueringen – skjule noen av deres evner for å unngå å reise noen sikkerhetsbekymringer. Evalueringene kan også mislykkes i å pålitelig avdekke hele settet av risikoer som enhver modell utgjør. Evalueringer lider likeledes av begrenset omfang – nåværende tester er usannsynlig å avdekke alle risikoene som krever videre undersøkelse. Det er også spørsmålet om hvem som utfører evalueringene og hvordan deres skjevheter kan påvirke testinnsatsen. Av disse grunnene må evalueringer brukes sammen med andre styringsverktøy.
Interne rapporteringsmekanismer
Et slikt verktøy kan være interne rapporteringsmekanismer innen laboratoriene. Ideelt sett bør ansatte føle seg styrket til regelmessig og fullstendig å dele sine AI-sikkerhetsbekymringer med sine kolleger, og de bør føle at disse kollegene deretter kan stoles på for å handle på bekymringene. Men det er økende bevis på at åpen kritikk langt fra blir fremmet, snarere tvert imot, blir sjeldnere i AI-laboratorier. Bare tre måneder siden sendte 13 tidligere og nåværende arbeidere fra OpenAI og andre laboratorier et åpent brev der de uttrykte frykt for gjengjeldelse hvis de forsøkte å avsløre tvilsom bedriftsatferd som ikke bryter med loven.
Hvordan varsle
I teorien kan eksterne varsler beskyttelser spille en verdifull rolle i å oppdage AI-risikoer. Disse kan beskytte ansatte som blir sagt opp for å avsløre bedriftsaksjoner, og de kan hjelpe med å kompensere for utilstrekkelige interne rapporteringsmekanismer. Nesten hver stat har et unntak for offentlig politikk for vilkårlig oppsigelse av ansettelse – med andre ord, ansatte som ble oppsagt kan søke rettslige skritt mot sine arbeidsgivere hvis de ble utsatt for represalier for å utpeke usikre eller ulovlige bedriftspraksiser. Men i praksis gir dette unntaket få garantier for ansatte. Dommere har en tendens til å favorisere arbeidsgivere i varslingssaker. Sannsynligheten for at AI-laboratoriene overlever slike saker virker spesielt høy gitt at samfunnet ennå ikke har kommet til enighet om hva som kvalifiserer som usikker AI-utvikling og utplassering.
Et nytt “rett til å varsle”
Disse og andre mangler forklarer hvorfor de før nevnte 13 AI-arbeiderne, inkludert eks-OpenAI-ansatt William Saunders, ba om en ny «rett til å varsle». Selskaper ville måtte tilby ansatte en anonym prosess for å avsløre risikorelaterte bekymringer til laboratoriets styre, en reguleringsmyndighet, og en uavhengig tredje kropp bestående av fageksperter. Inngang og utgang fra denne prosessen er ennå ikke fastlagt, men det ville antagelig være en formell, byråkratisk mekanisme. Styret, regulatoren og tredjeparter måtte alle gjøre en opptegnelse av avsløringen. Det er sannsynlig at hver kropp deretter ville iverksette en form for etterforskning. Påfølgende møter og høringer virker også som nødvendige deler av prosessen. Men hvis Saunders skal tas på ordet, er det noe annet AI-arbeidere virkelig ønsker.
Senke terskelen
Når Saunders gikk på Big Technology Podcast for å beskrive sin ideelle prosess for å dele sikkerhetsbekymringer, fokuserte han ikke på formelle kanaler for å rapportere etablerte risikoer. I stedet indikerte han et ønske om et mellomliggende, uformelt trinn. Han ønsker en mulighet til å motta nøytral, ekspert tilbakemelding på om en sikkerhetsbekymring er stor nok til å gå gjennom en «høy innsats»-prosess som et rett-til-å-varsle-system. Nåværende statlige regulatorer, som Saunders sier, kunne ikke tjene den rollen.
For det første mangler de sannsynligvis ekspertise til å hjelpe en AI-arbeider med å tenke gjennom sikkerhetsbekymringer. Dessuten vil få arbeidere plukke opp telefonen hvis de vet at det er en myndighetsperson på den andre enden – den slags samtale kan være “veldig skremmende,” som Saunders selv sa på podcasten. I stedet ser han for seg å ringe en ekspert for å diskutere sine bekymringer. I et ideelt scenario, vil vedkommende bli fortalt at risikoen det gjelder ikke virker så alvorlig eller sannsynlig å materialisere seg, og han kan gå tilbake til hva han gjorde med mer sinnsro.
Studere eksempler andre steder
Detaljene om hvordan en AI-sikkerhets hotline nøyaktig ville fungere fortjener mer debatt blant AI-fellesskapsmedlemmer, regulatorer og sivilsamfunnet. For at hotline skal realisere sitt fulle potensiale, kan det for eksempel være nødvendig med en måte å eskalere de mest presserende, verifiserte rapportene til de rette myndighetene. Hvordan sikre konfidensialiteten til hotline-samtaler er en annen sak som trenger grundig undersøkelse. Hvordan rekruttere og beholde frivillige er et annet nøkkelspørsmål. Gitt ledende eksperters brede bekymring om AI-risiko, kan noen være villige til å delta bare ut av et ønske om å hjelpe til. Dersom for få folk stiller opp, kan andre insentiver være nødvendige. Den essensielle første trinnet er imidlertid å anerkjenne denne manglende puslespill biten i AI-sikkerhets regulering. Neste trinn er å se etter modeller å etterligne i byggingen av den første AI-hotline.
- En mulig modell er ombudsmenn. Andre industrier har anerkjent verdien av å identifisere disse nøytrale, uavhengige individene som ressurser for å evaluere alvorlighetsgraden av medarbeideres bekymringer. Ombudsmenn finnes i akademia, ideelle organisasjoner og privat sektor. Det særegne kjennetegnet for disse individene og deres ansatte er nøytralitet – de har ingen insentiv til å favorisere den ene siden over den andre, og følgelig er de mer sannsynlig å bli stolt på av alle.
- I en titt på bruken av ombudsmenn i føderal regjering viser at når de er tilgjengelige, kan problemer bli reist og løst raskere enn de ellers ville ha blitt. Dette konseptet er relativt nytt. USAs handelsdepartement etablerte den første føderale ombudsmannen i 1971. Kontoret ble gitt i oppgave å hjelpe borgere med å løse tvister med etaten og undersøke etatens handlinger. Andre etater, inkludert Social Security Administration og Internal Revenue Service, fulgte snart etter. En retrospektiv gjennomgang av disse tidlige innsatsene konkluderte med at effektive ombudsmenn kan meningsfylt forbedre borger-regjerings relasjoner. Generelt var ombudsmenn assosiert med en oppsving i frivillig overholdelse av forskrifter og samarbeid med regjeringen.
En AI-ombudsmann eller sikkerhets hotline vil sikkert ha forskjellige oppgaver og ansatte fra en ombudsmann i en føderal etat. Ikke desto mindre er det generelle konseptet verdig studium av de som fremmer sikkerhetstiltak i AI-industrien.
En rett til å varsle kan spille en rolle i å få AI-sikkerhets bekymringer hørt, men vi må sette opp flere mellomliggende, uformelle trinn også. En AI-sikkerhets hotline er en lavthengende frukt innen regulering. En pilot bestående av frivillige kunne organiseres i relativt kort tid og gi en umiddelbar utløp for de, som Saunders, som bare vil ha en å vende seg til.