top of page

Introduzione ai Large Language Models (LLM) con esempi Python

Benvenuto nell'entusiasmante mondo dei Large Language Models (LLM)! 🚀


Gli LLM sono modelli di intelligenza artificiale che utilizzano algoritmi di deep learning per elaborare e comprendere il linguaggio naturale. Sono un elemento fondamentale del deep learning e vengono addestrati su enormi quantità di dati di testo per apprendere i modelli e le relazioni delle entità nella lingua.


E non è tutto: gli LLM sono in grado di eseguire molti tipi di attività linguistiche! 🤖 Possono tradurre lingue, analizzare sentimenti, generare conversazioni con i chatbot e molto altro ancora. Ma non finisce qui: grazie alla loro capacità di comprendere dati testuali complessi, possono identificare entità e relazioni tra di essi, generare nuovo testo coerente e grammaticalmente accurato, e molto altro ancora.


Insomma, se vuoi saperne di più sui Large Language Models, questo è l'articolo che fa per te! 💻



Introduzione ai Large Language Models (LLM) con esempi Python
Introduzione ai Large Language Models (LLM) con esempi Python


Indice introduzione ai Large Language Models

  1. Architettura generale

  2. Esempi di LLM

  3. Modelli di linguaggi di grandi dimensioni open source

  4. Fioritura Architettura

  5. API Hugging Face

  6. Esempio python 1 – Completamento frase

  7. Esempio python 2 – Domanda Risposte

  8. Esempio python 3 – Riepilogo

  9. Implicazioni future degli LLM

  10. Conclusione



Architettura generale dei Large Language Models

L'architettura dei Large Language Models (LLM) è costituita da diversi livelli di reti neurali che lavorano insieme per elaborare il testo di input e generare previsioni di output. Ecco le parti più importanti dell'architettura degli LLM in grassetto e con l'uso delle liste:

  • Il livello di incorporamento: questo livello converte ogni parola nel testo di input in una rappresentazione vettoriale ad alta dimensione. Gli incorporamenti catturano informazioni semantiche e sintattiche sulle parole e aiutano il modello a comprendere il contesto.

  • I livelli di feedforward: questi livelli sono composti da più livelli completamente connessi che applicano trasformazioni non lineari agli incorporamenti di input. I livelli di feedforward aiutano il modello ad apprendere astrazioni di livello superiore dal testo di input.

  • I livelli ricorrenti: questi livelli sono progettati per interpretare le informazioni dal testo di input in sequenza. I livelli ricorrenti mantengono uno stato nascosto che viene aggiornato a ogni passaggio temporale, consentendo al modello di catturare le dipendenze tra le parole in una frase.

  • Il meccanismo di attenzione: questo meccanismo è un'altra parte importante degli LLM, che consente al modello di concentrarsi selettivamente su diverse parti del testo di input. Il meccanismo di attenzione consente al modello di occuparsi delle parti più rilevanti del testo di input e di generare previsioni più accurate.



Esempi di Large Language Models LLM:

Ecco alcuni esempi di Large Language Models (LLM) che stanno attualmente rivoluzionando il campo dell'elaborazione del linguaggio naturale:

  • GPT-3 (Generative Pre-addestrato Transformer 3) – Questo modello è stato sviluppato da OpenAI ed è uno dei più grandi LLM al mondo con 175 miliardi di parametri. Grazie alla sua grande capacità, GPT-3 è in grado di eseguire molte attività linguistiche, come la generazione di testo, la traduzione e il riepilogo.

  • BERT (Bidirectional Encoder Representations from Transformers) – Sviluppato da Google, BERT è un altro popolare LLM addestrato su un enorme corpus di dati di testo. Questo modello può comprendere il contesto di una frase e generare risposte significative alle domande.

  • XLNet - Questo LLM sviluppato dalla Carnegie Mellon University e Google utilizza un nuovo approccio alla modellazione del linguaggio chiamato "modellazione del linguaggio di permutazione". XLNet ha raggiunto prestazioni all'avanguardia in diverse attività linguistiche, come la generazione di linguaggio e la risposta alle domande.

  • T5 (Text-to-Text Transfer Transformer) – Sviluppato da Google, T5 è addestrato su una vasta gamma di attività linguistiche e può eseguire trasformazioni da testo a testo, come la traduzione in un'altra lingua, la creazione di un riepilogo e la risposta alle domande.

  • RoBERTa (Robustly Optimized BERT Pretraining Approach) – Sviluppato da Facebook AI Research, RoBERTa è una versione migliorata del modello BERT e offre prestazioni migliori in diverse attività linguistiche.


Questi LLM stanno cambiando il modo in cui le macchine comprendono e producono il linguaggio naturale, aprendo la strada a nuove possibilità nell'elaborazione del linguaggio umano.



Modelli di linguaggi di grandi dimensioni open source

La disponibilità di Large Language Models (LLM) open source ha rivoluzionato il campo dell'elaborazione del linguaggio naturale, consentendo a ricercatori, sviluppatori e aziende di creare applicazioni che sfruttano la potenza di questi modelli per creare prodotti su larga scala gratuitamente. Di seguito sono riportati alcuni esempi di modelli di linguaggio open source noti:

  • Bloom: Il primo LLM multilingue addestrato in completa trasparenza dalla più grande collaborazione di ricercatori di intelligenza artificiale mai coinvolti in un singolo progetto di ricerca. Con i suoi 176 miliardi di parametri, Bloom è più grande del GPT-3 di OpenAI e può generare testo in 46 lingue naturali e 13 linguaggi di programmazione. È addestrato su 1,6 TB di dati di testo, 320 volte le opere complete di Shakespeare.

  • Megatron: Sviluppato da NVIDIA, questo LLM è uno dei modelli di linguaggio più grandi e veloci del mondo. Ha raggiunto prestazioni all'avanguardia in molte attività linguistiche, tra cui la generazione di testo, la traduzione e la risposta alle domande. È disponibile in diverse varianti, tra cui Megatron-LM e Megatron-11B, con 1,3 miliardi e 11 miliardi di parametri rispettivamente.

  • GPT-Neo: Un progetto open source sviluppato dalla comunità per creare un'alternativa gratuita e decentralizzata a GPT-3 di OpenAI. GPT-Neo è stato addestrato su una vasta gamma di dati di testo e può generare testo in diverse lingue. Il modello più grande di GPT-Neo, chiamato GPT-Neo 2.7B, ha 2,7 miliardi di parametri e può eseguire una varietà di attività linguistiche.

  • Hugging Face Transformers: Una libreria open source per l'elaborazione del linguaggio naturale che fornisce una vasta gamma di modelli di linguaggio pre-addestrati. Hugging Face Transformers include modelli di linguaggio come GPT-2, GPT-3, BERT, RoBERTa e molti altri. La libreria è stata ampiamente utilizzata dalla comunità di ricerca e sviluppo per creare applicazioni di NLP.

L'utilizzo di LLM open source ha reso l'elaborazione del linguaggio naturale più accessibile e ha permesso a un numero sempre maggiore di sviluppatori di creare applicazioni di NLP avanzate senza dover spendere enormi somme di denaro per l'accesso a modelli proprietari.




Architettura BLOOM LLM Open Source

Introduzione ai Large Language Models (LLM) con esempi Python
Introduzione ai Large Language Models (LLM) con esempi Python

L'architettura di BLOOM condivide somiglianze con GPT3 (modello autoregressivo per la previsione del prossimo token), ma è stata addestrata in 46 linguaggi diversi e 13 linguaggi di programmazione. Consiste in un'architettura di solo decodificatore con diversi livelli di incorporamento e livelli di attenzione a più teste.


L'architettura di Bloom è adatta per la formazione in più lingue e consente all'utente di tradurre e parlare di un argomento in una lingua diversa. Vedremo questi esempi di seguito nel codice.



API Hugging Face

Diamo un'occhiata a come le API di Hugging Face possono aiutare a generare testo utilizzando LLM come Bloom, Roberta-base, ecc.


Innanzitutto, dobbiamo registrarci per Hugging Face e copiare il token per l'accesso all'API. Dopo la registrazione, passa con il mouse sull'icona del profilo in alto a destra, fai clic su Impostazioni, quindi su Token di accesso.


Introduzione ai Large Language Models (LLM) con esempi Python
Introduzione ai Large Language Models (LLM) con esempi Python

Esempio 1 – Completamento frase

Diamo un'occhiata a come possiamo usare Bloom per il completamento delle frasi. Il codice seguente usa il token Hugging Face per l'API per inviare una chiamata API con il testo di input e i parametri appropriati per ottenere la risposta migliore.


import requests 
rom pprint import pprint 

API_URL = 'https://api-inference.huggingface.co/models/bigscience/bloomz' 
headers = {'Authorization': 'Entertheaccesskeyhere'} 
# The Entertheaccesskeyhere is just a placeholder, which can be changed according to the user's access key

def query(payload):     
    response = requests.post(API_URL, headers=headers, json=payload)
    return response.json() 
 
 params = {'max_length': 200, 'top_k': 10, 'temperature': 2.5} 
 output = query({'inputs': 'Sherlock Holmes is a',     'parameters': params, }) 
 pprint(output)

I valori di temperatura e top_k possono essere modificati per ottenere un paragrafo più grande o più piccolo mantenendo la pertinenza del testo generato rispetto al testo di input originale. Otteniamo il seguente output dal codice:


[{'generated_text': 'Sherlock Holmes is a private investigator whose cases ''have inspired several film productions'}]

Diamo un'occhiata ad altri esempi utilizzando altri LLM.

Introduzione ai Large Language Models (LLM) con esempi Python
Introduzione ai Large Language Models (LLM) con esempi Python


Esempio 2 – Domanda Risposte

Possiamo utilizzare l'API per il modello Roberta-base che può essere una fonte a cui fare riferimento e a cui rispondere. Modifichiamo il carico utile per fornire alcune informazioni su di me e chiediamo al modello di rispondere alle domande basate su questo.


API_URL = 'https://api-inference.huggingface.co/models/deepset/roberta-base-squad2'
headers = {'Authorization': 'Entertheaccesskeyhere'}
def query(payload):
    response = requests.post(API_URL, headers=headers, json=payload)
    return response.json()
    
params = {'max_length': 200, 'top_k': 10, 'temperature': 2.5}
output = query({'inputs': {
            "question": "What's my profession?",
            "context": "My name is Suvojit and I am a Senior Data Scientist"
        },'parameters': params
})

pprint(output)

Il codice stampa correttamente l'output seguente alla domanda: Qual è la mia professione?:

{'answer': 'Senior Data Scientist',
 'end': 51,
 'score': 0.7751647233963013,
 'start': 30}


Esempio 3 – Riassunti

Possiamo riassumere usando i Large Language Models. Riassumiamo un lungo testo che descrive modelli di linguaggio di grandi dimensioni utilizzando il modello Bart Large CNN . Modifichiamo l'URL dell'API e abbiamo aggiunto il testo di input di seguito:

API_URL = "https://api-inference.huggingface.co/models/facebook/bart-large-cnn"
headers = {'Authorization': 'Entertheaccesskeyhere'}
def query(payload):
    response = requests.post(API_URL, headers=headers, json=payload)
    return response.json()
    
params = {'do_sample': False}
full_text = '''AI applications are summarizing articles, writing stories and 
engaging in long conversations — and large language models are doing 
the heavy lifting.

A large language model, or LLM, is a deep learning model that can 
understand, learn, summarize, translate, predict, and generate text and other 
content based on knowledge gained from massive datasets.

Large language models - successful applications of 
transformer models. They aren’t just for teaching AIs human languages, 
but for understanding proteins, writing software code, and much, much more.

In addition to accelerating natural language processing applications — 
like translation, chatbots, and AI assistants — large language models are 
used in healthcare, software development, and use cases in many other fields.'''

output = query({'inputs': full_text,
    'parameters': params
})

pprint(output)

L'output stamperà il testo riassuntivo sugli LLM:

[{'summary_text': 'Large language models - most successful '
                  'applications of transformer models. They aren’t just for '
                  'teaching AIs human languages, but for understanding '
                  'proteins, writing software code, and much, much more. They '
                  'are used in healthcare, software development and use cases '
                  'in many other fields.'}]

Questi sono alcuni degli esempi di utilizzo dell'API Hugging Face per i comuni modelli di linguaggio di grandi dimensioni.


Implicazioni future degli LLM

Negli ultimi anni, gli LLM (modelli di linguaggio di grandi dimensioni) come GPT-3 e chatbot come ChatGPT hanno attirato l'interesse di molti, grazie alla loro capacità di generare testo in linguaggio naturale che è praticamente indistinguibile da quello scritto dagli esseri umani. Tuttavia, mentre gli LLM rappresentano un'importante svolta nel campo dell'Intelligenza Artificiale (AI), ci sono anche preoccupazioni riguardo alle loro implicazioni future sui mercati del lavoro, sulla comunicazione e sulla società.


Ecco alcune delle principali preoccupazioni in questo ambito:

  1. Impatto sui mercati del lavoro: Uno dei principali timori associati agli LLM è il loro potenziale di sostituire i lavoratori umani in molte attività. Ad esempio, gli LLM potrebbero essere utilizzati per la scrittura di documenti legali, blog di notizie, e persino per rispondere alle domande dei clienti. Questo potrebbe portare alla perdita di posti di lavoro per coloro il cui lavoro può essere facilmente automatizzato.

  2. Nuove opportunità lavorative: Tuttavia, è importante notare che gli LLM non sostituiscono necessariamente i lavoratori umani. Possono invece essere utilizzati come uno strumento che aiuta le persone a essere più produttive ed efficienti nel loro lavoro. Inoltre, l'automazione di alcuni compiti può portare alla creazione di nuovi lavori come risultato della maggiore efficienza e produttività consentite dagli LLM.

  3. Impatto sulla società: Gli LLM hanno il potenziale di avere un impatto significativo sulla società in diversi modi. Ad esempio, potrebbero essere utilizzati per creare piani educativi o sanitari personalizzati, portando a migliori risultati per pazienti e studenti. Gli LLM possono essere utilizzati per aiutare le aziende e i governi a prendere decisioni migliori analizzando grandi quantità di dati e generando approfondimenti.


Introduzione ai Large Language Models (LLM) con esempi Python
Introduzione ai Large Language Models (LLM) con esempi Python

Conclusione sui

In conclusione, i Large Language Models (LLM) hanno portato una rivoluzione nell'elaborazione del linguaggio naturale, consentendo progressi significativi nella generazione e nella comprensione del testo. Tuttavia, ci sono preoccupazioni etiche e potenziali pregiudizi associati a questi modelli, che richiedono una valutazione critica del loro impatto sulla società.

Ecco alcuni punti chiave da tenere a mente:

  1. I LLM sono in grado di comprendere frasi complesse, le relazioni tra le entità e l'intento dell'utente e di generare nuovo testo coerente e grammaticalmente corretto.

  2. L'articolo ha esplorato l'architettura di alcuni LLM, come i livelli di incorporamento, feedforward, ricorrenti e di attenzione.

  3. Sono stati discussi alcuni LLM popolari, come BERT, RoBERTa, GPT-3 e Bloom, insieme alla disponibilità di LLM open source.

  4. Le API di Hugging Face possono essere utili per gli utenti che desiderano generare testo utilizzando LLM come Bart-large-CNN, RoBERTa, Bloom e Bart-large-CNN.

  5. Ci si aspetta che gli LLM abbiano un impatto significativo in vari settori, tra cui il mercato del lavoro, la comunicazione e la società in futuro.

Sebbene gli LLM abbiano il potenziale per apportare cambiamenti positivi, è essenziale affrontare le loro implicazioni etiche e limiti e valutarne l'impatto sulla società con attenzione.

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
PCR (5).gif
PCR (4).gif
PCR.gif
PCR.gif
PCR.gif
PCR.gif
PCR (5).gif
3.gif
Vediamo se riesci a cliccarmi ! Nascondo una Sorpresa... (2).png

Ciao 

🤗 Articoli consigliati dalla nostra
Intelligenza Artificiale in base ai tuoi interessi

Correlazione Alta

Correlazione Media

Correlazione Bassa

Iscriviti

VUOI DIVENTARE UN MEMBRO DI INTELLIGENZA ARTIFICIALE ITALIA GRATUITAMENTE E TRARNE I SEGUENTI BENEFICI?

Corsi Gratis

più di 150 lezioni online

Dataset Gratis

più di 150o dataset

Ebook Gratis

più di 10 libri da leggere

Editor Gratis

un editor python online

Progetti Gratis

più di 25 progetti python

App Gratis

4 servizi web con I.A.

Unisciti Ora a oltre
1.000.000
di lettori e appassionanti d'I.A.

Tutto ciò che riguarda l'intelligenza Artificiale, in unico posto, in italiano e gratis.

MEGLIO DI COSI' NON SI PUO' FARE

Dopo l'iscrizione riceverai diversi Regali

VUOI SCRIVERE ARTICOLI INSIEME A NOI.

Grazie

bottom of page