Distillazione della Conoscenza: Ottimizzare Modelli di Ensemble in un Singolo Modello AI Scopri come la distillazione della conoscenza trasforma modelli di ensemble complessi in un singolo modello AI efficiente e deployable.
Glossario dei Termini Comuni dell'Intelligenza Artificiale Un glossario completo dei termini più comuni nell'intelligenza artificiale, dalle LLM alle allucinazioni.
TriAttention: Ottimizzazione della Cache KV nei Modelli LLM TriAttention, una nuova tecnica di compressione della cache KV, migliora l'efficienza dei modelli di linguaggio di grandi dimensioni, riducendo l'utilizzo di memoria e aumentando la velocità di elaborazione.
Liquid AI Rilascia LFM2.5-VL-450M: Modello Vision-Language Avanzato Scopri le novità di LFM2.5-VL-450M di Liquid AI: predizione di bounding box, supporto multilingue e inferenza edge sotto i 250ms.
MiniMax M2.7: Il Modello AI Open-Source da 230 Miliardi di Parametri con Auto-Evoluzione MiniMax ha rilasciato M2.7, un modello AI da 230 miliardi di parametri con capacità di auto-evoluzione, disponibile su Hugging Face.
Gemma 4: modelli open per reasoning e agenti Gemma 4 porta reasoning, agentic workflows, multimodalità e deployment flessibile su edge, workstation e cloud per casi d’uso enterprise.
Acquisizione AI nel biotech: segnale strategico per il mercato Un’acquisizione nel biotech AI evidenzia la corsa alla specializzazione: dati, competenze verticali e workflow diventano il vero vantaggio competitivo.