Non è così semplice.
La cosa che ha "sorpreso" di DeepSearch non sono le prestazioni in se, ma il fatto che abbia prestazioni comparabili con quelle dei modelli più in voga al momento, ma ottenuti ad un costo e con risorse generali enormemente inferiori. Si pensava che tutto questo fosse stato possibile grazie a qualche geniale innovazione nella progettazione del modello.
Ora, se davvero si sono poggiati ai dati di OpenAI, questo non semplifica la vita solo per quanto riguarda il training, ma ti permette teoricamente anche di sviluppare un modello più piccolo e semplice... il che ha un impatto economico molto importante non solo a livello di training, ma anche a livello di sviluppo... e questo pure senza fregargli mezza riga di codice.
Chiaro che devi poi avere competenze di alto livello eh, non è che io e te ci mettiamo ed in una settimana creiamo un modello nostro basato sul lavoro di altri.
Però è una cosa che permette potenzialmente di tagliare tantissimo i costi di progettazione, implementazione e sviluppo.
Quindi magari i dati sono veri ed è effettivamente costato molto poco... ma è andata così perchè si sono poggiati sulle spalle di altri.