intelligenza artificiale

Deep Seek ha copiato ChatGPT? Il problema della Knowledge Distillation

DeepSeek è arrivata come meteorite nel mondo dell’intelligenza artificiale e ha già creato un movimento tellurico che ha scosso il mercato, ma OpenAI non ci sta e accusa DeepSeek di aver copiato ChatGPT, anzi di aver usato ChatGPT come “insegnante” per addestrare il proprio modello R1, con una tecnica che si chiama “Knowledge Distillation”.

Secondo il gigante statunitense dell’intelligenza artificiale, DeepSeek avrebbe impiegato il processo noto come “Knowledge Distillation” per addestrare il suo nuovo modello R1, utilizzando i dati derivati da ChatGPT di OpenAI. Questa battaglia ha sollevato molte domande sull’etica e la legittimità dell’utilizzo di tecnologie preesistenti per la creazione di nuovi modelli AI.

Che Cos’è il Modello R1 di DeepSeek?

Recentemente, DeepSeek ha annunciato il suo modello R1, presentandolo come una soluzione avanzata di AI che combina alte prestazioni con costi ridotti e proprio i costi estremamente contenuti rispetto ai concorrenti hanno fatto tremare i mercati finanziari facendo, secondo alcuni esplodere la bolla dell’AI, la picchiata in Borsa dei titoli di società ha portato i media a dare molto spazio e molta enfasi alla notizia con titoli come “DeepSeek Shocks Silicon Valley” e “Meta AI Panic Mode”. Per la prima volta l’industria dell’AI è apparsa debole di fronte ad un fenomeno dirompente che ha dimostrato come gli Stati Uniti non siano gli unici a guidare la rivoluzione dell’Intelligenza artificiale.

OpenAI accusa DeepSeek

Le accuse di OpenAI si basano sull’ipotesi che DeepSeek abbia utilizzato la “Knowledge Distillation” per replicare in parte le funzionalità di ChatGPT. David Sacks, chiamato a difendere le politiche sulla tecnologia e l’intelligenza artificiale della nuova amministrazione statunitense, ha riferito a Fox News che ci sono “prove sostanziali” che confermerebbero l’uso di questo metodo da parte di DeepSeek. Sacks ha sottolineato come le principali aziende di AI stiano considerando misure per prevenire tali pratiche, allo scopo di proteggere i loro modelli originali.

Cos’è la “Knowledge Distillation”?

La “Knowledge Distillation” è un processo utilizzato nel campo dell’Ai per trasferire la conoscenza da un modello grande (il “teacher”) a un modello più piccolo (“student”). Questo consente al modello più piccolo di raggiungere performance simile al modello originale, ma con un budget computazionale ridotto. Il processo è particolarmente utile per implementare modelli di intelligenza artificiale su dispositivi con limitate risorse hardware. Il processo di “Knowledge Distillation” è stato utilizzato per la prima volta nel 2015 da Geoffrey Hinton, uno dei padri fondatori dell’intelligenza artificiale moderna. Hinton ha sviluppato un algoritmo che permette proprio di trasferire la conoscenza da un modello addestrato a uno non ancora addestrato.

Come Funziona la Knowledge Distillation?

Il processo di Knowledge Distillation solitamente prevede i seguenti passaggi:

Training del modello insegnante: Un modello di grandi dimensioni e dai risultati accurati (teacher) viene addestrato su un ampio set di dati.

Generazione di Output: Il modello insegnante viene utilizzato per generare output (spesso probabilistici) per un insieme di input forniti.

Addestramento del modello studente: Questi output vengono quindi utilizzati per addestrare un modello studente più piccolo, cercando di minimizzare la divergenza tra le predizioni dello studente e quelle dell’insegnante.

La Knowledge Distillation è particolarmente utile perché consente di avere modelli più piccoli con performance simili a quelli più grandi, permettendo implementazioni più efficienti in termini di memoria e velocità, senza sacrificare troppo l’accuratezza.

DeepSeek accusata di Knowledge Distillation

Attualmente, le accuse di OpenAI si basano su osservazioni del comportamento del modello R1 e sulle somiglianze con ChatGPT. Tuttavia, non ci sono prove concrete pubblicamente disponibili che dimostrino definitivamente l’uso non autorizzato di “Knowledge Distillation” da parte di DeepSeek.

Nel mondo dell’intelligenza artificiale, aziende leader come OpenAI sono ben consapevoli delle problematiche legate alla distillazione non autorizzata dei modelli. Per contrastare queste pratiche, adottano misure proattive come il blocco degli accessi sospetti e la limitazione del numero di richieste che possono essere inviate ai loro sistemi o da specifici computer. Tuttavia, le tecniche di distillazione stanno diventando sempre più sofisticate, riuscendo talvolta a eludere i controlli e permettendo così a terze parti di creare modelli propri basati su quelli di alta qualità, che richiedono risorse ingenti, sia in termini di capacità di calcolo che di costi di sviluppo.

La distillazione non autorizzata rappresenta una minaccia concreta per la sostenibilità economica delle grandi aziende che investono enormi capitali nello sviluppo di modelli completi e avanzati. Queste società, come OpenAI, sostengono costi di sviluppo che possono raggiungere centinaia di milioni di dollari, con l’obiettivo di creare modelli di nuova generazione sempre più potenti. Tuttavia, altri soggetti possono sfruttare tali investimenti per derivare modelli semplificati, caratterizzati da una maggiore efficienza e minori costi operativi.Il settore dell’intelligenza artificiale è ancora giovane e in continua evoluzione, con sorprendenti cambiamenti che possono influenzare drasticamente il panorama tecnologico, come dimostrato dagli eventi tumultuosi dell’ultima settimana. Questo rende difficile prevedere con certezza se, nel medio-lungo periodo, sarà più vantaggioso investire nello sviluppo di modelli completi o nella creazione di modelli distillati, soprattutto in relazione a specifiche tipologie di operazioni.

OpenAI accusa DeepSeek, gli editori accusano OpenAI

La questione rimane aperta e sarà interessante osservare come il settore si adatterà ai futuri sviluppi tecnologici e alle dinamiche di mercato, intanto ha alimentato un dibattito su ciò che può essere considerato lecito o etico l’utilizzo di tecnologie derivate per lo sviluppo di nuovi prodotti nel settore dell’intelligenza artificiale e ha messo OpenAI in una posizione difficile.

Numerosi osservatori hanno notato che OpenAI ora cerca di difendere le sue proprietà intellettuali contro DeepSeek ma dall’altra parte sta affrontando molte cause legali intentate dagli editori per il presunto utilizzo non autorizzato dei loro contenuti nello sviluppo di ChatGPT. Gli editori accusano OpenAI di aver utilizzato archivi di giornali, gallerie fotografiche e piattaforme video per raccogliere dati necessari all’addestramento dei suoi sistemi di intelligenza artificiale. OpenAI si difende affermando che tali contenuti sono stati impiegati solo nella fase di sviluppo e che il sistema genera contenuti propri. Gli editori, d’altra parte, sostengono che ChatGPT spesso riproduce i loro contenuti tali e quali, violando il diritto d’autore. In pratica ChatGPT accuserebbe DeepSeek di violazioni del diritto d’autore esattamente come gli editori accusano ChatGPT. Il mondo dell’AI si morde la coda…

 


Deep Seek ha copiato ChatGPT? Il problema della Knowledge Distillation - Ultima modifica: 2025-02-02T10:19:35+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

Recent Posts

I migliori Podcaster Italiani: classifica 2025

I Podcast hanno conquistato l'Italia, qui la lista dei migliori Podcaster Italiani in base al…

12 ore ago

Mobilità urbana: SWITCH e Wayla chiudono round da oltre 1,8 milioni di euro

Le due startup italiane SWITCH e Wayla raccolgono fondi per rivoluzionare il trasporto urbano con…

14 ore ago

Responsabilità nell’AI: perché il futuro dell’innovazione dipende dalla leadership

Il report di NTT DATA esplora il divario tra innovazione AI e responsabilità, evidenziando l'importanza…

1 giorno ago

Majorana 1, il nuovo chip quantistico di Microsoft, che omaggia il matematico italiano

Microsoft ha presentato il Majorana 1, un chip quantistico topologico che punta a risolvere problemi…

4 giorni ago

Intelligenza Artificiale ed emozioni umane: un dialogo complesso

L’intelligenza artificiale può simulare, comprendere e suscitare emozioni, creando un dialogo emotivo che richiede consapevolezza.…

6 giorni ago

L’AI di Meta legge nel pensiero: converte l’attività cerebrale in testo

Meta AI ha sviluppato una tecnologia per decodificare l'attività cerebrale in testo tramite reti neurali…

1 settimana ago

Digitalic © MMedia Srl

Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135

Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011