InfoAut
Immagine di copertina per il post

Guerre di Rete – Il 18 brumaio di OpenAI

Il nuovo board. Chi ha vinto e chi ha perso. E poi l’AI Act

di Carola Frediani, da Guerre di Rete
N.174 – 26 novembre 2023

In circa una settimana Guerre di Rete è stata presente su Rainews, SkyTg24, e Radio Svizzera (per parlare di intelligenza artificiale). Mentre il nostro articolo Macron punta sull’AI nazionale, firmato da Antonio Piemontese, è stato citato da Wired Italia e dal manifesto. A dicembre invece Guerre di Rete sarà media partner delle giornate di studio organizzate dal collettivo di dottorandə del Dipartimento di Scienze Sociali dell’Università di Napoli Federico II, Game of Tech. Grazie ancora a chi ci ha invitato o ripreso e a tutti quelli che ci sostengono, senza i quali questo progetto non andrebbe avanti.  

Postilla:
In questo periodo il progetto Guerre di Rete sta dando ampio spazio all’intelligenza artificiale. Cercheremo di riequilibrare in futuro il peso degli argomenti trattati, tornando di più anche su altri temi, come sempre avvenuto. Tuttavia è vero che siamo in un momento piuttosto importante, anche a livello politico, per quanto riguarda gli assetti e le decisioni che riguardano l’AI e il nostro futuro. Personalmente ritengo un dovere civico, in questo momento, fare informazione su quanto sta accadendo. 

In questo numero:
– Il 18 brumaio di OpenAI
– L’alleanza per cambiare l’AI Act
– L’inquietante industria dell’aldilà digitale
– Come funziona la prima simulazione di voto elettronico in Italia


INTELLIGENZA ARTIFICIALE
Il 18 brumaio di OpenAI


“Sbattete fuori tutta questa gente!”. Osservando quanto accaduto al consiglio di amministrazione di OpenAI, mi è venuta in mente questa frase, attribuita a Murat nei confronti dell’aula del Consiglio dei Cinquecento, quando Napoleone con un colpo di Stato mise fine alla Repubblica e al Direttorio, facendo iniziare il Consolato.
Solo che invece del generale francese mi immagino quelle parole sulla bocca di qualche investitore, nel momento in cui ha realizzato come il board no profit che controlla la società for profit, valutata 80 miliardi di dollari, avesse improvvisamente fatto fuori il proprio Ceo, Sam Altman, senza una spiegazione apparente. Per poi implodere in un delirio di cinque giorni che ha lasciato esterrefatti anche i commentatori tech più scafati (ho raccontato questa prima parte nella scorsa newsletter).

Licenze storiche a parte, scrivo così perché secondo il Wall Street Journal Satya Nadella, il Ceo di Microsoft, e Kevin Scott, il suo CTO, sarebbero stati fondamentali nel far reintegrare Altman a capo di OpenAI, e che tale soluzione sarebbe stata quella considerata ideale dal colosso di Redmond.

“Quando il consiglio di amministrazione si è ritorto contro Altman, Altman si è immediatamente rivolto a Nadella”, scrive il WSJ, spiegando come da subito i due abbiano discusso al telefono su come riportare l’ex Ceo in OpenAI o su come farlo entrare a Microsoft con un seguito di ricercatori. “Ma il risultato ideale per Microsoft era che Altman tornasse in OpenAI come Ceo, secondo una persona a conoscenza delle idee di Nadella. Aprendo le porte di Microsoft al team di OpenAI, Nadella ha aumentato il potere contrattuale di Altman per riavere la sua posizione, mentre il consiglio di amministrazione della stessa OpenAI si trovava di fronte a un esodo”.

Microsoft ha investito prima 3 miliardi, e più recentemente altri 10, nella società che ha sviluppato ChatGPT, ma non aveva un posto nel consiglio di amministrazione della no profit che controlla la società profit (e il cui obiettivo non sarebbe, da statuto, il beneficio degli investitori, ma quello dell’umanità), “poiché temeva che un’influenza eccessiva avrebbe allarmato le autorità di regolamentazione sempre più aggressive”, scrive ancora il WSJ.

Il board: chi va via, chi arriva e chi resta

Non ce l’ha ancora adesso (almeno mentre scrivo), ma tanto per cominciare il board che aveva licenziato Altman è stato sostituito quasi interamente. È rimasto Adam D’Angelo, fondatore di Quora e di un progetto AI di nome Poe, uno di quelli che hanno votato contro Altman a dispetto del fatto che nel 2018 venne portato nel board dallo stesso. D’Angelo rimane anche per dare rappresentanza al vecchio consiglio in quello nuovo, secondo fonti raccolte da The Verge. Ma il suo ruolo nella vicenda, ancora misteriosa, rimane il più enigmatico (e soprattutto le motivazioni, non potendo essere collocato in modo netto sul fronte dei rischio-esistenzialisti dell’AI, mentre il supposto conflitto di interesse per la sua azienda AI non convince del tutto).

Via invece le uniche due donne del board. Via Helen Toner, direttrice della strategia del Centro per la sicurezza e le tecnologie emergenti (CSET) della Georgetown University, che quando fu nominata nel consiglio era elogiata come una voce affidabile sulle implicazioni dell’AI per la sicurezza nazionale e come sostenitrice della trasparenza sui rischi. Ma sappiamo che Toner era entrata in conflitto aperto (documentato da email) con Altman per un paper che aveva pubblicato con altri in ottobre, in cui criticava OpenAI per aver scatenato, col rilascio di ChatGPT, un senso di urgenza nelle aziende tech. “Questo risultato sembra sorprendentemente simile alle dinamiche di corsa al ribasso che OpenAI e altri hanno dichiarato di voler evitare”, argomenta il paper. Mentre il concorrente Anthropic veniva lodato per aver deciso di ritardare l’uscita del suo prodotto.
Toner è anche un’altruista effettiva (così si è descritta) e ha lavorato in organizzazioni di quel movimento di utilitarismo estremo favorito dai miliardari della Silicon Valley, per usare una definizione succinta dell’effective altruism (in inglese lo trovate spesso nella sigla EA). Movimento sfaccettato ma che flirta con una serie di altre correnti ideologiche che vanno dal longtermismo al rischio esistenzialismo (X-risk), ovvero chi sostiene che l’AI presto diverrà così potente e incontrollabile da mettere a rischio l’esistenza dell’umanità.
Un’altra altruista effettiva è anche la seconda donna cacciata dal board, la manager del settore tech Tasha McCauley, che secondo alcuni resoconti giornalistici avrebbe insistito con toni apocalittici sulla questione sicurezza.

E poi c’è Ilya Sustkever, lo scienziato capo, ex membro del board, ricercatore rispettato (ha iniziato sotto un altro pioniere del settore, Geoffrey Hinton, e con altri ha contribuito in modo importante al deep learning, come avevo scritto qua e qua) ma anche uno che all’AGI, all’arrivo di una superintelligenza complessivamente molto superiore a quella umana, ci crede fermamente  – tanto che come un predicatore gospel fa cantare ai dipendenti di OpenAI: “Feel the AGI!” (ovvero senti l’AGI che arriva).
Insomma, questo Sustkever, che con un colpo di scena aveva votato per cacciare Altman e poi però si è pentito e ci ha ripensato (con tanto di cuori scambiati su Twitter fra i due), ecco lui è l’altro personaggio indecifrabile di questa vicenda. In teoria dovrebbe restare in OpenAI, ma ci sono al momento molti dubbi al riguardo. Certo è quello che ne esce di più con le ossa rotte. Personalmente, da Altman, che tutto è meno che stupido, mi aspetterei che se lo tenga ben stretto a questo punto, sempre che Sutskever voglia davvero restare.

Ma la verità è che il board ha fatto esattamente il board di quella specifica, atipica no profit. E come tale era suo diritto decidere in modo indipendente dagli investitori. Il problema è che l’assenza totale di avvisaglie, spiegazioni e di comunicazioni esterne da parte dello stesso, insieme agli enormi interessi ormai in gioco e all’anomala struttura di partenza di OpenAI, hanno reso le sue azioni non solo difficili da valutare, ma di fatto un harakiri.

Ora nel consiglio attuale (che dovrà poi allargarsi ulteriormente, e lì sarà interessante vedere chi entra) oltre al sopravvissuto D’Angelo, siedono Bret Taylor, una specie di istituzione del settore tech, tra Google Maps, Facebook, Twitter, Salesforce. Stiamo parlando di uno che è riuscito a cacciare l’accordo per la vendita di Twitter in gola a un riluttante Elon Musk. E ho detto tutto sulla scorza del personaggio.
L’altra new entry è Larry Summers. Quel Summers, ex segretario al Tesoro americano sotto Clinton, addentro al mondo della politica di Washington e delle startup, quel presidente emerito di Harvard di fatto sfiduciato e poi dimissionario dopo aver dichiarato che la difficoltà delle donne a emergere in carriere scientifiche sarebbe dovuta a innate differenze di genere. Il suo ingresso in OpenAI è stato salutato così da una organizzazione, Revolving Door Project, che scruta i legami e le giravolte fra governo, accademia e aziende: “Non c’è indicazione più grande del fatto che OpenAI non abbia a cuore gli interessi dell’umanità della nomina di Larry Summers al suo Consiglio di Amministrazione”.

Chi ha vinto e chi ha perso

Secondo il NYT, la questione è semplice: il team Capitalismo ha vinto. Il team Leviatano ha perso (inteso come quel ramo di AI safety che insiste su rischi esistenziali derivanti da una AI che a breve potrebbe diventare molto potente e incontrollabile, e che crede in questa possibilità imminente, come Sustkever).

Certo, aggiungo io, stiamo assistendo a una ritirata di quel gruppo che sull’intelligenza artificiale è ispirato e foraggiato dall’altruismo effettivo. Quanto meno abbiamo visto l’ennesima brusca frenata di questo movimento, dopo il colpo subito con l’arresto di Sam Bankman-Fried, il fondatore dell’exchange di criptovalute FTX, che era anche uno dei campioni e finanziatori dell’EA (effective altruism). Movimento che sta cominciando ad assomigliare sempre di più a un gruppo di agenti del caos. Se prima era malvisto soprattutto da ricercatori di AI progressisti e pragmatici (come Timnit Gebru che qui lo critica aspramente), e invece appoggiato da chi voleva fare business perché la narrazione di avere le chiavi di una AI super potente permette di spostare la conversazione su rischi lontani, rendendo al tempo stesso chi la sostiene un interlocutore privilegiato dei governi, ora è come se alcuni tra i tecno-ottimisti e “i team capitalisti” si fossero accorti che può essere una zavorra o un problema.

E per ora è in questo contesto che leggerei anche l’ultima notizia data da Reuters secondo la quale una demo di un modello chiamato Q*, presumibilmente capace di risolvere semplici operazioni matematiche, avrebbe scatenato le speranze (e le paure) di stare a un passo dall’AGI. Che questo elemento abbia giocato un ruolo nel rovesciamento del board per ora però è contestato da altri resoconti. In quanto all’aspetto tecnico e alla sua portata (con annessi sensazionalismi), rilevo solo lo scetticismo o quanto meno la forte cautela di molti ricercatori e accademici (da Yann Lecun a Pedro Domingo ad Antonio Casilli).

A questo punto bisogna chiedersi: la sconfitta parziale di rischio-esistenzialisti, altruisti effettivi e fautori dell’AGI lascerà più spazio a chi porta avanti istanze attuali e concrete di difesa dei diritti, di trasparenza e accountability nell’AI? O segna il trionfo del laissez-faire?

AIACT
L’alleanza per cambiare l’AI Act

Le Big Tech statunitensi, i Paesi europei, le startup europee ben collegate e gli ex ministri francesi stanno tutti usando la loro considerevole influenza e il loro capitale politico per modificare drasticamente le regole europee sull’intelligenza artificiale attraverso un’intensa attività di lobbying.

Il loro obiettivo? Eliminare i “modelli di base” – le AI più potenti e all’avanguardia come ChatGPT di OpenAI – dalla storica legge dell’Unione Europea sull’AI. Questa alleanza, ben organizzata e politicamente potente, cerca di far ricadere la regolamentazione esclusivamente sugli sviluppatori di applicazioni, sostiene un editoriale di Euractiv. Se avete letto la mia scorsa newsletter, avevo parlato proprio di questo scenario.

DIGITAL AFTERLIFE
L’inquietante industria dell’aldilà digitale

Non ci sono solo i testamenti digitali. Una serie di startup e progetti aziendali vogliono ricreare il caro estinto in forma digitale. Con cui interagire. Nuovo articolo su Guerre di Rete a firma di Andrea Signorelli.
”Le sperimentazioni di Kuyda, però, non sono le uniche che ambiscono a portare l’industria della “digital afterlife” al livello successivo. Già cinque anni fa erano state identificate ben 57 startup attive nel settore, tra queste troviamo HereAfter, che invia ricordi interattivi letti con la voce della persona defunta; MyWishes, che invia messaggi alle persone care dopo la scomparsa dell’utente; o StoryFile, che permette di ricevere risposte registrate in vita dai propri cari defunti, selezionandole automaticamente in base alla domanda posta.”

ITALIA
Come funziona la prima simulazione di voto elettronico in Italia
Entro fine anno il governo deve spendere un milione di euro per sperimentare il voto da remoto. Il 13 e 14 dicembre il test. Chi partecipa. E chi sta costruendo la piattaforma digitale. L’inchiesta di Wired Italia.

SANITA’ IN UK
Dati sanitari e Palantir

Palantir Technologies, la società di analisi dei dati co-fondata dal miliardario Peter Thiel, si è aggiudicata un contratto per la riorganizzazione del sistema di dati dei pazienti del Servizio Sanitario Nazionale nel Regno Unito. Con molte polemiche.

CYBERGUERRA
La battaglia dei droni e dell’electronic warfare sul fronte ucraino, raccontata dal NYT

CONVEGNI

Giornate di studio Game of Tech
Il 20 dicembre parteciperò a Game of Tech, le Giornate di Studio organizzate dal collettivo di dottorandə del Dipartimento di Scienze Sociali dell’Università di Napoli Federico II di cui Guerre di Rete è media partner.
Tre panel e due workshop per coniugare l’innovazione tecnologica con la responsabilità e la sensibilità sociale, per rispettare la dignità umana ed evitare di riprodurre ingiustizie e discriminazioni. Partecipazione libera e gratuita, in modalità ibrida, previa compilazione del form.
Qui tutte le informazioni.

Immagine: Il selfie twittato da Greg Brockman quando si è capito che lui e Altman sarebbero rientrati in OpenAI

Ti è piaciuto questo articolo? Infoaut è un network indipendente che si basa sul lavoro volontario e militante di molte persone. Puoi darci una mano diffondendo i nostri articoli, approfondimenti e reportage ad un pubblico il più vasto possibile e supportarci iscrivendoti al nostro canale telegram, o seguendo le nostre pagine social di facebook, instagram e youtube.

pubblicato il in Formazionedi redazioneTag correlati:

CAPITALISMO DELLE PIATTAFORMEcarola fredianiintelligenza artificiale

Articoli correlati

Immagine di copertina per il post
Formazione

Argentina: le lotte studentesche crescono in tutto il paese

Affollate marce con fiaccolate a Buenos Aires e La Plata

Immagine di copertina per il post
Formazione

In Val Susa si accende lo sciopero studentesco

Durante la giornata di ieri un grande numero di studentesse e studenti si è riunito in piazza per scioperare contro l’accorpamento tra il Liceo Norberto Rosa e l’iis Enzo Ferrari e la chiusura della stazione di Susa per i lavori della stazione internazionale.

Immagine di copertina per il post
Formazione

Quale democrazia nella scuola?

L’Assemblea, gruppo informale di un centinaio di docenti di una quarantina di Istituti piemontesi, ha redatto un questionario dal titolo “Quale democrazia nella scuola?” con lo scopo di condurre una ricerca tra il personale scolastico circa il cambiamento dei processi democratici all’interno delle istituzioni scolastiche.

Immagine di copertina per il post
Formazione

Contro presidi padroni e scuole aziende è arrivato il tempo di organizzarsi e lottare!

L’accesso abusivo sarebbe servito, secondo le indagini, per alterare i voti scolastici a discrezione del volere della preside

Immagine di copertina per il post
Formazione

Torino: sequestrata l’aula occupata dall’Intifada studentesca al Politecnico

Dopo 4 mesi di occupazione l’aula occupata “Shereen Abu Akleh” è stata sequestrata.

Immagine di copertina per il post
Formazione

Scuola: piattaforme di apprendimento e maestri dotati di intelligenza artificiale

Il corso sperimentale si rivolge a venti studenti di età compresa tra 15 e 17 anni che possono frequentare l’università ogni giorno impegnandosi nello studio utilizzando le piattaforme di apprendimento adattivo basate sull’intelligenza artificiale che personalizzano il loro percorso formativo.

Immagine di copertina per il post
Formazione

Riforma Bernini dell’università: la campagna 90%

Ad inizio giugno un fulmine si è abbattuto sull’università italiana.  La ministra Anna Maria Bernini ha annunciato che il governo sta lavorando ad una nuova riforma onnicomprensiva dell’università. Dal reclutamento al precariato, dalla didattica alla governance, il governo Meloni non vuole perdere l’occasione di ridisegnare il funzionamento degli atenei.  Il fatto che la coalizione di […]

Immagine di copertina per il post
Conflitti Globali

Sapienza per la Palestina: la Rettrice scrive la mobilitazione risponde.

Qualche giorno fa la rettrice Antonella Polimeni ha mandato una mail a tutt* gli/le student* della Sapienza per condannare la tendopoli che si è tenuta al pratone e l’occupazione della facoltà di lettere. Com’è noto entrambe queste iniziative sono avvenute in solidarietà con il popolo palestinese. Riportiamo sia la mail della rettrice Polimeni sia tre […]

Immagine di copertina per il post
Formazione

La guerra entra in classe

I come Intelligence. Il nome del “progetto” non lascia spazi a dubbi o fraintendimenti.

Immagine di copertina per il post
Approfondimenti

L’intelligenza artificiale. Problemi e prospettive

L’Ai attuale è una grande operazione ideologica e di marketing, confezionata per aumentare il controllo delle persone e restringere il margine di libertà digitale” (1) Intervista a Stefano Borroni Barale, da Collegamenti di Classe L’Intelligenza artificiale (Ai) è un tema oggi talmente di moda che persino il papa ha ritenuto indispensabile dire la sua sull’argomento. […]

Immagine di copertina per il post
Approfondimenti

Cos’è il Fascicolo Sanitario Elettronico e perché dovrebbe interessarci.

Il Fascicolo Sanitario Elettronico (FSE) rappresenta uno strumento che consente alle persone di monitorare e visualizzare l’intera cronologia delle proprie condizioni di salute.

Immagine di copertina per il post
Approfondimenti

“Lavender”: la macchina dell’Intelligenza Artificiale di Israele che dirige i bombardamenti a Gaza

L’esercito israeliano ha contrassegnato decine di migliaia di gazawi come sospetti per l’assassinio, utilizzando un sistema di puntamento AI con scarsa supervisione umana e una politica permissiva per i danni collaterali, rivelano +972 e Local Call.

Immagine di copertina per il post
Approfondimenti

Uscita la legge europea sull’Intelligenza Artificiale: cosa va alle imprese e cosa ai lavoratori

Il 13 marzo 2024 è stato approvato l’Artificial Intelligence Act, la prima norma al mondo che fornisce una base giuridica complessiva sulle attività di produzione, sfruttamento e utilizzo dell’Intelligenza Artificiale.

Immagine di copertina per il post
Formazione

Intelligenza artificiale, Ai Act e panopticon globale

Lo scorso sabato parlamento, consiglio e Unione Europea si sono accordati sul testo finale per la regolamentazione dell’intelligenza artificiale. Un accordo selettivo, che consente l’utilizzo di strumenti di controllo, vietati per i cittadini europei, ai migranti.

Immagine di copertina per il post
Conflitti Globali

Il sistema AI di Israele per la selezione dei bersagli ha generato una “fabbrica di omicidi di massa” a Gaza

Israele ha impiegato un sistema di intelligenza artificiale per generare obiettivi di morte che ha trasformato Gaza in una “fabbrica di omicidi di massa”, secondo un nuovo rapporto investigativo, di forte impatto, pubblicato dall’organo israeliano di informazione +972 Magazine.

Immagine di copertina per il post
Divise & Potere

Interpol: sistema multimilionario di “analisi predittiva” in costruzione

Il sito web dell’Interpol rileva che lo sviluppo della piattaforma INSIGHT è un “progetto complesso e su larga scala” con diverse fasi.

Immagine di copertina per il post
Conflitti Globali

Olimpiadi 2024, la medaglia d’oro per la sorveglianza di massa

Decine di migliaia di agenti di polizia, gendarmi e guardie di sicurezza private saranno presenti nelle strade. Sulle facciate degli edifici, nelle cavità dei lampioni, tra le pale dei droni, telecamere di videosorveglianza, che catturano immagini analizzate in tempo reale da intelligenze artificiali incaricate di rilevare qualsiasi comportamento “sospetto”.