Deepseek: tutto quello che c’è da sapere – Economia e Finanza

Effettua la tua ricerca

More results...

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Filter by Categories
#finsubito

Sconto crediti fiscali

Finanziamenti e contributi

 


(Teleborsa) – DeepSeek è una startup cinese di intelligenza artificiale fondata nel 2023 da Liang Wenfeng. La società ha sede ad Hangzhou e si distingue per lo sviluppo di Large Language Model altamente performanti, che sulla carta richiedono molta meno potenza di calcolo sia per la fase di addestramento che per quella cosiddetta di “inferenza”, ovvero di utilizzo del modello stesso. L’ultima versione di Deepseek è stata rilasciata il 25 Gennaio 2025 ed in poche ore l’app omonima ha superato i numeri di download di ChatGPT e Gemini negli Stati Uniti.

Un successo così ampio è da ricercare principalmente nelle performance del modello, che effettivamente raggiunge la qualità di ChatGPT (in alcuni casi funziona anche meglio, ad esempio come aiuto per la scrittura di codice è molto più preciso nelle descrizioni delle righe generate). Deepseek è disponibile per tutti senza limitazioni, attualmente infatti non esiste un revenue model B2C, mentre i guadagni dovrebbero provenire in futuro principalmente da declinazioni corporate e B2B.

Su cosa si basa Deepseek

Carta di credito con fido

Procedura celere

 

Il modello protagonista dei dibattiti attuali è Deepseek R1, ed è salito agli onori della cronaca per richiedere una potenza di calcolo incredibilmente inferiore rispetto alla concorrenza. L’intelligenza artificiale made in china nasce infatti come risposta alla politica di dazi americani, che avevano reso l’acquisizione delle GPU Nvidia necessarie per il training del modello estremamente più costose, con lo scopo di limitare la Cina nella creazione di strumenti AI realmente competitivi. In tutta risposta Liang ha rilasciato un LLM competitivo che è costato “solo” 6 milioni di dollari, contro i 100 milioni spesi da OpenAI nel 2023 per GPT 4 (questo sempre stando ai dati rilasciati da Deepseek).

Come se non bastasse, gli algoritmi di Deepseek sono sempre stati rilasciati con licenza open source; questo vuol dire che chiunque possa essere interessato può scaricare da GitHub (il maggior repository al mondo di software) tutto il codice sorgente del modello, per creare un Deepseek eventualmente modificato secondo le proprie esigenze, senza dover pagare nulla alla società (e infatti alcuni ricercatori della Berkley University in California hanno realizzato una AI custom, chiamata Tiny Zero, utilizzando il core di Deepseek, con un investimento di circa 30 dollari).

Come ha fatto Deepseek a costare così poco

Prima di continuare su questo punto è necessaria una precisazione: un Large Language Model (abbreviato LLM) non impara nulla dagli utenti, al massimo può imparare come interagire al momento, quali argomenti preferiamo e quali linguaggio siamo abituati ad utilizzare, ma queste cose sono limitate alla sessione in corso ed una volta che viene avviata una nuova “chat” praticamente si riparte da zero. Questo non vale solo per Deepseek ma anche per GPT, Gemini, Claude e attualmente tutti gli altri LLM.

Perché una intelligenza artificiale diventi “adulta”, abbandonando lo stato di puro codice fine a se stesso, ha bisogno di due fasi, quella di “addestramento” e quella di “Inferenza”.

Durante la fase di addestramento viene costruito il dataset su cui si baserà la “conoscenza” dell’AI. Questi dati devono essere il più numerosi e eterogenei possibile, OpenAI ad esempio ha stretto una partnership con Microsoft per sfruttare i dati provenienti da Bing, mentre Gemini essendo di proprietà di Google ha accesso ad un dataset estremamente vasto. Nel caso di Deepseek non è stata specificata con precisione la provenienza dei dati, che stando a quanto dichiara la compagnia provengono interamente da fonti libere ed open source.

Addestrare un LLM è un processo estremamente complesso che richiede enorme potenza di calcolo. In questo caso, i dati rilasciati da Deepseek parlano di circa 2000 gpu H800 di Nvidia che hanno impiegato 55 giorni a completare l’addestramento. Per fare un paragone immediato, OpenAI avrebbe impiegato 8000 gpu H100 che hanno richiesto circa 90 giorni per completare l’elaborazione del dataset di GPT 4.

Anche la fase di utilizzo (inferenza) è onerosa in termini di calcolo, ma molto meno della fase di addestramento. Anche in questo caso però i dati rilasciati da Deepseek presenterebbero una ottimizzazione radicale che consentirebbe un risparmio molto importante.

Finanziamo agevolati

Contributi per le imprese

 

Non è tutto oro quel che luccica

Relativamente a quanto abbiamo visto finora, Deepseek sembra una rivoluzione: è disponibile per chiunque voglia usarlo o modificarlo, è gratuito, richiede datacenter minuscoli rispetto a quelli che abbiamo visto fino ad oggi e non ha nulla da invidiare agli LLM più costosi e famosi. Tutto questo ha portato ad una perdita del titolo di Nvidia del 18%, perché l’associazione che hanno fatto i mercati è stata più o meno questa: le AI possono funzionare con il decimo della potenza di calcolo, quindi le GPU Nvidia venderanno un decimo nel prossimo futuro.

Ma è davvero così? Una ottimizzazione così radicale è davvero possibile? In realtà i chiaroscuri che si sono aperti sulla vicenda cominciano a diventare sempre più numerosi ed ingombranti. Per cominciare, Deepseek afferma di aver utilizzato 2048 Gpu H800 (versione depotenziata e destinata al mercato cinese delle più performanti H100 usate da Nvidia), ma è noto che la società ne ha acquistate un numero che oscilla intorno alle 10.000; oltre a questo, Bloomberg ha riportato che Washington starebbe indagando sull’acquisizione da parte della società di circa 50.000 Gpu H100 attraverso un tramite di Singapore.

Anche sulle performance stanno nascendo non pochi dubbi: secondo l’azienda Deepseek ha superato il punteggio di OpenAI o1 su benchmark come l’American Invitational Mathematics Examination (AIME). Il Wall Street Journal però ha affermato che quando lo ha utilizzato per risolvere 15 problemi dall’edizione 2024 di AIME, ChatGPT ha raggiunto una soluzione più velocemente di DeepSeek-R1-Lite-Preview.

Secondo il Financial Times infine, OpenAI avrebbe delle prove inconfutabili del fatto che la versione R1 di Deepseek sia stata addestrata utilizzando niente meno che ChatGPT; quindi è vero che si è risparmiata una notevole potenza di calcolo, ma solo perchè era già stata utilizzata per un altro addestramento.

L’aspetto più particolare della vicenda è però legato alla proprietà: Deepseek è una startup fondata da Liang Wenfen nel 2023, che ne è anche l’amministratore delegato. Il finanziatore principale di Deepseek è il fondo High-Flyer, di cui Liang è uno dei co-fondatori dal 2016. High-Flyer è la prosecuzione naturale dei successi nel trading a cui il fondatore di Deepseek si dedica durante la crisi del 2007-2008, ed infatti, seguendo la passione originale, nel 2019, trasforma High-Flyer in un hedge fund focalizzato sullo sviluppo e l’utilizzo di algoritmi di trading basati sull’intelligenza artificiale, per arrivare al 2021, in cui High-Flyer comincia ad utilizzare esclusivamente l’intelligenza artificiale nel trading. Se a questo aggiungiamo il fatto che, secondo un report della società di analisi online americana Graphika, alcuni account social legati al governo cinese avrebbero lavorato per spingere il lancio di Deepseek R1 e dei dati relativi che ne hanno accompagnato il rilascio (di cui abbiamo visto ben più di un motivo per dubitarne), si potrebbe pensare che sia stata fatta una mossa dal duplice risultato: da una parte Pechino avrebbe danneggiato una società americana in risposta ai dazi proclamati dal neoeletto presidente Trump, dall’altro High-Flyer potrebbe avere fatto short selling delle azioni Nvidia, facendo una manovra che però a questo punto potrebbe diventare legalmente discutibile.

In tutta questa situazione particolarmente complessa è giusto scorgere anche qualche lato positivo: prima di tutto, in Italia Deepseek è ancora accessibile attraverso il sito, l’unica cosa ad essere bloccata temporaneamente è la app sugli store Android e iOS (potreste però trovarla negli store proprietari di Huawei, Oppo e Xiaomi, o addirittura scaricarla dal sito ufficiale), inoltre, per quanto colpiti direttamente, Sam Altman di OpenAI ha dichiarato che il debutto di Deepseek nello scenario AI mondiale, con un prodotto di questa qualità, non potrà far altro che dare uno scossone importante a tutti i player coinvolti, portando quindi ad una accelerata nello sviluppo di questa tecnologia, in cui, secondo Goldman Sachs, quest’anno dovrebbero essere raggiunti i 2000 miliardi di dollari complessivi di investimento.

Contributi e agevolazioni

per le imprese

 



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link