DeepSeek continua a turbare il sonno delle Big Tech americane sul tema dell'intelligenza artificiale. La startup cinese
prevede di diventare ancora più open source, rilasciando a partire dalla prossima settimana codici e dati chiave al pubblico. Una politica che si differenzia da quella di società come OpenAI, il cui ecosistema è invece chiuso.
DeepSeek ha già seminato il panico verso la fine del mese scorso quando ha presentato R1, il modello AI (Artificial Intelligence) in grado di ottenere le stesse performance di ChatGPT di OpenAI e di Llama di Meta Platforms, ma a un costo molto più basso. L'economicità della piattaforma deriva dal fatto che quest'ultima è stata pensata per utilizzare molti meno chip di Nvidia. Ciò ha messo le Big Tech davanti a un problema molto scomodo: gli enormi investimenti sull'intelligenza artificiale. In poche parole, è affiorato il dubbio che si stesse spendendo troppo per la nuova tecnologia.
Ora, DeepSeek è pronta a sferrare un altro colpo, rendendo disponibili i suoi repository di codice a sviluppatori e ricercatori. I repositary sono uno spazio di archiviazione digitale in cui vengono organizzati e gestiti i dati e le risorse necessari per l'addestramento, l'esecuzione e la valutazione dei modelli di intelligenza artificiale. In pratica, "chiunque sarà in grado di scaricare, costruire o migliorare il codice dietro l'R1 o altre piattaforme", ha scritto la società su X.
Anche Meta consente agli utenti di personalizzare la piattaforma per le proprie applicazioni, quindi mette anche a disposizione modelli open source. L'azienda cinese però si spinge oltre pubblicando il codice sottostante, i dati per crearlo e le modalità di sviluppo e gestione dello stesso. Quanto a OpenAI, sebbene inizialmente sia stata aperta agli sviluppatori, nel tempo si è chiusa sempre di più.
Intelligenza artificiale: le Big Tech anche contro l'Europa
Attualmente le Big Tech americane non solo devono affrontare la concorrenza insidiosa di DeepSeek, ma devono anche affrontare il problema di proteggersi dalla severa regolamentazione dell'Unione europea sul fronte dell'intelligenza artificiale. Alla conferenza tecnologica Techarena di Stoccolma, i dirigenti di Alphabet e Meta Platforms si sono lamentati che l'eccesso di regole in Europa rischia di soffocare l'innovazione sull'AI.
"Penso che ora ci sia un ampio consenso sul fatto che la regolamentazione europea sulla tecnologia abbia i suoi problemi. A volte è troppo frammentata, come il GDPR (General Data Protection Regulation, ndr). A volte va troppo oltre, come l'AI Act", ha detto Chris Yiu, direttore delle politiche pubbliche di Meta. "Il risultato netto di tutto ciò è che i prodotti vengono ritardati o annacquati e i cittadini e i consumatori europei ne soffrono".
Dello stesso tenore sono state le dichiarazioni di Dorothy Chou, responsabile delle politiche pubbliche di Google DeepMind. Egli ha affermato che un problema chiave con l'approccio dell'Europa alla regolamentazione della tecnologia dell'intelligenza artificiale è che l'AI Act sia stato ideato prima ancora che ChatGPT fosse uscito. "Diventa difficile quando si regola su una scala temporale che non corrisponde alla tecnologia", ha detto. Ciò che dobbiamo fare è regolamentare in modo da garantire che ci sia un'applicazione responsabile della tecnologia e al contempo che l'industria stia prosperando in tutti i modi giusti".