Nel 2023 si è assistito a uno sviluppo incredibilmente rapido delle tecnologie di intelligenza artificiale generativa (IA), basate su modelli linguistici di grandi dimensioni (LLM). Lo sviluppo di modelli linguistici di grandi dimensioni, in particolare multimodali (testo, immagine, suono, codice di programmazione) ha accelerato le possibilità di applicazione in vari segmenti di business come il marketing, la gestione dei canali di vendita e la comunicazione generale con clienti e clienti, la scrittura di verbali e riassunti di studi aziendali di grandi dimensioni; in medicina per una più rapida scrittura di referti medici e diagnosi, nell'educazione per aiutare con la verifica delle conoscenze; in diritto per un'analisi più rapida dei fascicoli legali e la scrittura di documenti legali, nella ricerca scientifica per l'anticipazione di nuovi antibiotici e altri. Gli studi dimostrano che l'IA generativa ha già apportato cambiamenti al mercato del lavoro e che i cambiamenti continueranno a un ritmo rapido.
Tuttavia, i vantaggi economici dell'applicazione di questa tecnologia vengono con una serie di Potenziali problemi di sicurezza come la generazione di contenuti imprecisi, denominati allucinazioni, pregiudizi e tossicità, l'affidabilità del testo generato, il diritto d'autore e la privacy. Questi rischi possono danneggiare in modo significativo la reputazione dell'azienda e influenzare la società.
Il progetto EDIH Adria ha preparato una serie workshop di un giorno dove puoi trovare il modo migliore per aumentare la tua produttività e far crescere il tuo business attraverso l'IA generativa.
Ingegneria rapida in modo da riguardare argomenti come: Introduzione all'IA generativa e impatto sulle imprese e sul mercato del lavoro. Una panoramica dei compiti che l'IA generativa può risolvere e quali sfide non è all'altezza di una panoramica dei rischi e dei limiti. Risponderà alla domanda su quale sia la differenza nell'utilizzo di modelli pre-allenati e perfezionati e fornirà una panoramica dei modelli per la generazione di testo, immagini, discorso, musica e video con esempi di applicazioni nel marketing, medicina, business, ecc.
Introduzione allo sviluppo di applicazioni basate su LLM (grande modello linguistico) è un'educazione basata sull'applicazione dell'architettura Deep Grid Transformer, cioè la sua parte di decodificatore. Nella parte introduttiva saranno presentati i principi dell'apprendimento di modelli linguistici di grandi dimensioni per la generazione di testo, la loro messa a punto e i principi di valutazione sui dati di riferimento. Inoltre, verranno presentate tecniche per l'applicazione di modelli linguistici di grandi dimensioni in applicazioni come la messa a punto, il problema dell'oblio castastrofico e l'apprendimento all'interno del contesto. Saranno presentati i parametri Efficient Fine-Tuning-PEFT, Adapter e Low-Rank Adaptation of Large Language Models-LoRA techniques. Particolare attenzione sarà prestata alla generazione di testi fattivamente accurati con tecniche di recupero di generazione aumentata (RAG) utilizzando basi vettoriali, grafici della conoscenza o conoscenze esterne. Verranno spiegati gli agenti LLM e i più importanti pacchetti software per la creazione di applicazioni come LangChain e LlamaIndex. Dopo questo corso, gli utenti distingueranno tra modelli pre-addestrati e perfezionati e saranno in grado di iniziare a sviluppare applicazioni che utilizzano l'IA generativa in modo responsabile e sicuro.
Se gli utenti vogliono cimentarsi costruire il proprio LLM sull'architettura BERT, L'istruzione avanzata copre architetture di base e principi di apprendimento profondo con funzioni di attivazione e perdita. Verranno spiegate le differenze tra la rete ricorrente e la rete del trasformatore, nonché le sue varianti di codificatore, decodificatore e codificatore-decodificatore. Al centro dell'architettura ci sono i meccanismi dell'attenzione di sé e dell'attenzione multitesta. Verranno spiegati i principi dell'apprendimento autoregressivo e mascherato, nonché la differenza tra vettori statici e dinamici (contestualizzati) per la rappresentazione dei linguaggi - incorporamenti. Il modello BERT è dotato di varianti: RoBERT, AlBERT, SpanBERT. Affinché l'apprendimento dei modelli abbia successo, è importante comprendere i principi dell'apprendimento di trasferimento mettendo a punto il modello per il compito dell'utente dal dominio della previsione della sequenza, della classificazione o della generazione di frasi.