AIJB

Encode beschuldigt OpenAI van intimidatie bij AI-wetgeving in Californië

Encode beschuldigt OpenAI van intimidatie bij AI-wetgeving in Californië
2025-10-12 journalistiek

san francisco, zondag, 12 oktober 2025.
Encode, een klein beleidsadviesbureau, heeft OpenAI openlijk beschuldigd van intimidatiepraktijken tijdens de ontwikkeling van Californië’s nieuwe AI-veiligheidswet. De algemeen directeur van Encode beweert dat OpenAI getuigenverhoren en politieke invloed heeft gebruikt om de organisatie te intimideren en de wet af te zwakken, terwijl ze onwaar beweerden dat Encode gefinancierd werd door Elon Musk. Deze aantijgingen hebben flinke reacties opgeleverd, waaronder kritiek van binnen OpenAI zelf.

Accusaties van intimidatie

In een breed verspreide post op sociale media beschuldigde Calvin, de algemeen directeur van Encode, OpenAI ervan dat het bedrijf getuigenverhoren en politieke invloed heeft gebruikt om Encode te intimideren en de nieuwe AI-veiligheidswet van Californië af te zwakken. Hij beweerde dat OpenAI onwaar heeft beweerd dat Encode gefinancierd werd door Elon Musk, een belangrijke criticus van OpenAI. Deze aantijgingen hebben flinke reacties opgeleverd, waaronder kritiek van binnen OpenAI zelf [1].

Reacties van insiders

Joshua Achiam, hoofd missie-afstemming bij OpenAI, reageerde op Calvins bericht met een tweet waarin hij bezorgdheid uitsprak over de tactieken van het bedrijf. “Met mogelijk een risico voor mijn hele carrière zal ik zeggen: dit lijkt me geen goede zaak”, schreef Achiam. “We mogen geen dingen doen die ons veranderen in een angstaanjagende macht in plaats van een deugdzame. We hebben een plicht en een missie jegens de hele mensheid. De lat om die plicht na te streven ligt opmerkelijk hoog.” [1][3]

Subpoena’s en politieke druk

Calvin vertelde dat hij op een avond, toen hij met zijn vrouw aan tafel zat, een dagvaarding van OpenAI kreeg overhandigd door een hulpsheriff. Hij werd gevraagd om privéberichten met Californische wetgevers, studenten en voormalige werknemers van OpenAI te delen. De organisatie waar hij voor werkt, Encode AI, werd vorige maand ook al gedagvaard door OpenAI om uit te zoeken of Elon Musk, een grote concurrent van OpenAI, de groep financiert. OpenAI vaardigde de dagvaarding uit als onderdeel van zijn tegeneis tegen Musk, waarin het beweert dat de miljardair zich bezighoudt met ‘kwade trouw-tactieken om OpenAI te vertragen’. Calvin heeft hier het volgende over te zeggen: “Ik geloof dat OpenAI hun rechtszaak tegen Elon Musk heeft gebruikt als voorwendsel om hun critici te intimideren en te suggereren dat Elon achter hen allemaal zit.” [2]

Interne spanningen

Intern bij OpenAI klinkt er ook kritiek. Boaz Barak, een onderzoeker bij OpenAI en professor aan Harvard, twijfelde openlijk over de lancering van Sora 2, een nieuw video-generatieinstrument. Hij vond het technisch verbazingwekkend, maar waarschuwde voor de mogelijke valkuilen. Deze spanningen komen niet alleen in het licht door de aantijgingen van Encode, maar ook door de bredere discussie over de verantwoordelijkheid van AI-bedrijven. [3]

Impact op de wetgeving

De aantijgingen van Encode hebben een directe impact gehad op de ontwikkeling van Californië’s AI-veiligheidswet, ook bekend als SB 53. Deze wet, die op 30 september 2025 werd ondertekend door gouverneur Gavin Newsom, stelt strenge eisen aan de transparantie en veiligheid van AI-systemen. Calvin benadrukte dat OpenAI’s acties ongepast waren in het kader van deze wet, die bedoeld is om de ethische en veilige toepassing van AI te bevorderen. [1]

Ethische overwegingen

De beschuldigingen van intimidatie en de bredere discussie over de verantwoordelijkheid van AI-bedrijven hebben ook geleid tot een diepere reflectie op de ethische aspecten van AI-regulering. Terwijl AI de capaciteiten van bedrijven en overheden versterkt, roepen deze ontwikkelingen ook vragen op over privacy, veiligheid en de mogelijke misbruik van technologie. Boaz Barak wees erop dat de technische mogelijkheden van AI snel vooruitgaan, maar dat de maatschappelijke en ethische implicaties grondig moeten worden onderzocht. [3]

Bronnen