in

OpenAI fikk grønt lys til ny AI-modell til tross for sikkerhetsspørsmål

Kunstig intelligens har i løpet av den siste uken nok en gang gjort sitt inntog i overskriftene, med de nyeste oppdateringene fra store aktører som OpenAI og Microsoft. Det er både spennende fremskritt og noen etiske spørsmål som dukker opp rundt AI-teknologien, spesielt når det kommer til sikkerhet og anvendelse.

OpenAI sin o1 er “nokså sikker”

Forrige uke skapte OpenAI bølger med lanseringen av deres nye o1-modell, og entusiasmen steg raskt i AI-fellesskapet – til den detaljerte sikkerhetsanalysen ble gransket. Mens o1-modellen er smartere enn tidligere versjoner, kommer den også med en betydelig advarsel: Ifølge OpenAI sin egen vurderingsskala rangeres modellen som å ha et “middels” risikonivå. Selv om modellen har vist seg å være ganske lur under testing, hevder selskapet at de er “ganske sikre” på at o1 er trygg nok til å lanseres for offentlig bruk.

Dette fremhever likevel et bekymringsfullt problem for programmerere, spesielt fordi modellen ser ut til å kunne utføre tekniske intervjuer med nesten perfekt presisjon (90-100%). Spørsmålet som nå dukker opp er: Dersom AI kan klare dette, hva er fremtiden for menneskelige ingeniører?

Microsoft oppgraderer copilot

Samtidig har Microsoft erklært en stor oppdatering av deres Copilot-system med “Wave 2”. Denne oppdateringen er spesielt rettet mot å gi enda et løft til produktivitet og innholdsproduksjon ved bruk av AI. For de som tidligere var usikre på Copilot sin nytte, kan de nye funksjonene (som integrasjon med Excel og Pages) være avgjørende for å overbevise enda flere brukere.

Men det hele kommer ikke uten bekymring. Copilot sine muligheter til å få tilgang til brukerdata skaper spørsmål om personvern og hva det betyr når en AI har tilgang til sensitiv intern informasjon.

AI kan bidra til bedre jordbruk

Med OpenAI sitt “Strawberry”-prosjekt i søkelyset, har forskere utviklet et system som lover å revolusjonere hvordan vi dyrker jordbruksprodukter som jordbær. Dette open-source-verktøyet håper å kunne redusere matsvinn, øke avlinger og kanskje til og med senke prisene på ferske varer.

Humanity’s last exam

Tester for å måle AI-systemer holder ikke lenger tritt med hvor smarte disse modellene har blitt. Skaleringsbedriften Scale AI og Center for AI Safety (CAIS) har lansert et prosjekt kalt “Humanity’s Last Exam” for å møte denne utfordringen. Prosjektet ber mennesker om å sende inn spørsmål som kan sette AI på prøve – og om du klarer å stille et spørsmål komplekse AI-modeller ikke kan svare på, kan det bety en del av en premiepot på 500,000 dollar.

Chatbot kan dempe konspirasjonsteorier

En annen interessant utvikling kommer fra et forskerteam som har utviklet en chatbot basert på GPT-4 Turbo for å håndtere konspirasjonsteorier. Resultatene, som viser at boten kan endre folks holdninger til disse teoriene, reiser etiske spørsmål om hvor mye makt AI skal ha til å påvirke folks oppfatninger av “sannhet”.

Fremgang innen kryogenisk bevaring

For de som drømmer om nedfrysing for å leve igjen en dag i fremtiden, er det kanskje håp i horisonten. Selskapet Select AI bruker nå AI til å utvikle bedre kryobeskyttelsesmidler, som kan hindre biologisk materiale fra å krystallisere under frysing. Så langt har teknologien primært fokusert på forbedret transport og lagring av blod og medisiner, men visjonene for menneskelig kryogenisk bevaring har definitivt fått en vitamininnsprøytning av AI-teknologien.

Det er semmer for helsepersonell når slike AI-teknologier blir mer avanserte. Flere eksperter har hevdet at vanlige medisinske roller kan bli erstattet av AI i fremtiden, spesielt når det gjelder standarddiagnoser og rutinebehandlinger.

Flere nyheter fra AI-verdenen

  • Google Notebook LM kan nå gjøre om skriftlig tekst til en podkast.
  • Japans kommende zeta-class supercomputer vil bli 1000 ganger raskere enn dagens raskeste superdatamaskin i verden, når den lanseres i 2030.
  • SambaNova utfordrer OpenAI med sin egen Llama 3.1-demonstrasjon.
  • Flere teknologiselskaper ber California-guvernør Gavin Newsom om å nedlegge veto mot en ny AI-sikkerhetslov (SB 1047).
  • OpenAI-grunnlegger Sam Altman trekker seg fra selskapets sikkerhetskomité for å sikre økt uavhengighet.

Oppsummert er det tydelig at kunstig intelligens ikke bare utvikler seg på tekniske fronter, men også utfordrer sosiale og etiske normer på måter som kan ha varige konsekvenser både for arbeidsmarkedet og samfunnet som helhet, skriver DailyAI.