Kalt «Frontier Model Forum», og har i oppgave å fremme «ansvarlig utvikling» av de mest sofistikerte kunstig intelligens (AI) modellene og «minimere potensielle risikoer», ifølge en pressemelding. Medlemmene forplikter seg til å dele beste praksis med hverandre og med beslutningstakere, forskere og foreninger for å gjøre disse nye systemene mindre farlige. Den raske utrullingen av generativ AI, gjennom grensesnitt som ChatGPT (OpenAI), Bing (Microsoft) eller Bard (Google), skaper mye bekymring blant myndigheter og sivilsamfunn. Den europeiske union (EU) ferdigstiller et utkast til AI-forordning som må pålegge selskaper i sektoren forpliktelser, for eksempel åpenhet med brukere eller menneskelig kontroll over maskinen.
I USA hindrer politiske spenninger i Kongressen enhver innsats i denne retningen. Derfor oppfordrer Det hvite hus interesserte grupper til å garantere sikkerheten til produktene deres selv, i navnet til deres «moralske plikt», med ordene til USAs visepresident Kamala Harris i begynnelsen av mai. Forrige uke sikret Joe Biden-administrasjonen «forpliktelser» fra Amazon, Anthropic, Google, Inflection, Meta, Microsoft og OpenAI for å opprettholde «tre prinsipper» i AI-utvikling: sikkerhet, sikkerhet og tillit. Spesielt er det meningen at de skal teste oppstrømsprogrammene sine, bekjempe nettangrep og svindel, og finne en måte å merke AI-generert innhold, for å tydelig autentisere det som sådan. Lederne i disse selskapene benekter ikke risikoen, tvert imot. I juni ba Sam Altman, lederen av OpenAI, og Demis Hassabis, lederen av DeepMind (Google), spesielt for å bekjempe «AI-tilknyttede» «utryddelsesrisikoer» for menneskeheten. Under en kongresshøring støttet Sam Altman den populære ideen om å opprette et internasjonalt byrå med ansvar for styring av kunstig intelligens, slik det er på andre felt. I mellomtiden jobber OpenAI mot en såkalt «generell» AI, med kognitive evner som ligner på menneskers. I et innlegg 6. juli definerte den California-baserte oppstarten AI «frontier-modeller» som «svært sofistikerte grunnleggende programmer som kan presentere farlige evner av en størrelse som utgjør en alvorlig risiko for offentlig sikkerhet.» «Farlige evner kan dukke opp uventet,» advarer OpenAI, og «det er veldig vanskelig å forhindre at en implementert modell blir misbrukt.»
«Gamer. Faller mye ned. Ivrig baconfan. Webaholic. Ølgørd. Tenker. Musikkutøver.»