Risultati Ricerca Intelligenza Artificiale Italia
335 risultati trovati per "deep earning"
- L' Intelligenza Artificiale nel Mondo Digitale
in grado di eseguire istruzioni e di comportarsi in modo logico, imparando dalle esperienze (machine learning
- I migliori Prompt per Chat GPT : 700 prompt per sfruttare ChatGPT al massimo
Sto lavorando su un progetto di deep learning in Python, ma sto avendo problemi nella fase di addestramento Sei un esperto in deep learning con anni di esperienza. Puoi aiutarmi ad addestrare il mio modello di deep learning utilizzando (libreria di deep learning preferita Sei un esperto in deep learning con forti skill in CNN. Puoi aiutarmi ad implementare una CNN utilizzando (libreria di deep learning preferita) per analizzare
- Che cosa è il Machine Learning (ML)
Benvenuti nel mondo del Machine Learning! Cosa è il Machine Learning ? Il Machine Learning è una branca dell'intelligenza artificiale. I 3 pilastri del Machine Learning: Il machine learning si basa su tre pilastri fondamentali: Dati: Sono la materia prima del machine learning. Il machine learning e il futuro: un mondo di possibilità Il machine learning ha il potenziale per rivoluzionare
- Cos'è il TinyML o Tiny Machine Learning ?
Scopriamo insieme un sottosezione di machine learning (ML) chiamata Tiny Machine Learning (TinyML), che TinyML è un tipo di machine learning che riduce le reti di deep learning per adattarle a hardware minuscolo a bassissima potenza stanno invadendo il nostro mondo e, con i nuovi framework embedded di machine learning Che cos'è Tiny Machine Learning o TinyML? Un esempio di TinyML Learning Kit.
- AutoEncoder cosa sono e come funzionano
In questo Articolo capiremo cosa sono e come funzionano gli AutoEncoder... Mentre il mondo si sviluppa rapidamente con i progressi nell'apprendimento automatico e nell'intelligenza artificiale , presto ci troveremo ad affrontare una situazione di aumento incontrollabile dei dati. Introduzione agli AutoEncoder GPU, TPU e altri meccanismi di archiviazione ed elaborazione più veloci hanno finora elaborato con successo grandi quantità di dati nel più breve tempo possibile, ma possono elaborare i dati in meno spazio. Devi anche considerare come comprimerli e archiviarli. E questo ci porta all'argomento della discussione odierna: gli autoencoder, una tecnica che ci consente di comprimere le informazioni disponibili. Cosa sono gli AutoEncoder ? Gli autoencoder sono tecniche di apprendimento non supervisionate basate su framework di reti neurali, addestrate a copiare input in output. Le reti neurali sono progettate per creare colli di bottiglia nella rete. Internamente, il livello nascosto h descrive il codice utilizzato per rappresentare l'input. Una rete di autoencoder è composta da tre parti. Innanzitutto, l'encoder comprime l'immagine e genera il codice utilizzando la funzione dell'encoder h = f(x). Quindi arriva un collo di bottiglia in cui abbiamo una rappresentazione della conoscenza compressa dell'input originale, seguita da un decodificatore che forma la ricostruzione r = g(h). Lo schema dell'autocodificatore è mostrato nella Figura 1. I dati vengono compressi e ristrutturati mentre si spostano attraverso l'architettura. Questo processo di compressione e ricostruzione è complicato quando le funzioni di input sono indipendenti. Tuttavia, se thSe esiste una correlazione tra i dati di input, le dipendenze esistenti possono essere apprese e utilizzate quando l'input viene forzato attraverso il collo di bottiglia della rete. Figura 1 – Diagramma che mostra lo schema di un tipico Autoencoder Nella seguente sottosezione, daremo uno sguardo dettagliato all'architettura di rete e ai corrispondenti iperparametri di un Autoencoder. L'architettura di un autoencoder Devi già avere un'idea sbiadita di come sarebbe un autoencoder. In questa sezione, aggiungeremo più profondità alla tua comprensione. Saremmo particolarmente interessati agli iperparametri di cui devi occuparti durante la progettazione di un autoencoder. Come accennato in precedenza, un codificatore automatico è costituito da tre parti: codificatore, codice e decodificatore. Sia l'encoder che il decoder sono semplici reti neurali feedforward. Il codice è un singolo strato di ANN con dimensioni selezionate. Per i livelli di input e di output, il numero di nodi è determinato dai dati di input X. Pertanto, i livelli di input e di output hanno lo stesso numero di nodi ed entrambi corrispondono a rappresentazioni ad alta dimensione. Lo strato nascosto centrale con il minor numero di nodi corrisponde alla rappresentazione a bassa dimensione. L'obiettivo del processo di formazione è ridurre al minimo l'errore di ricostruzione al quadrato tra gli input e gli output della rete. Per gli algoritmi di apprendimento, la strategia più comunemente utilizzata è la backpropagation. I pesi iniziali della rete sono importanti per l'encoder per trovare una buona soluzione. La backpropagation funziona in modo più efficace quando i pesi iniziali sono più vicini alla soluzione ottimale. Sono stati sviluppati molti algoritmi per trovare buoni pesi iniziali. Prima di addestrare l'autoencoder, dobbiamo impostare quattro iperparametri. Il numero di nodi nel livello intermedio, ovvero il livello di codice. Una dimensione più piccola del livello di codice comporterebbe una maggiore compressione. Poi viene il numero di livelli nelle architetture di codificatore e decodificatore. La profondità dell'architettura può essere regolata alla perfezione e l'architettura profonda presenta vantaggi rispetto alle reti esterne. Il numero di nodi per livello è il terzo iperparametro che dobbiamo regolare. Tipicamente il codificatore e il decodificatore sono simmetrici in termini di struttura del livello e il numero di nodi in ogni livello successivo del codificatore continua a diminuire fino a raggiungere il livello di codice e quindi continua ad aumentare in modo simile nell'architettura del decodificatore. La scelta della funzione di perdita è il quarto iperparametro. Le funzioni di perdita più utilizzate includono l'errore quadratico medio o l'entropia incrociata binaria. Il compromesso più importante negli autoencoder è il compromesso bias-varianza. Allo stesso tempo, l'architettura dell'autoencoder dovrebbe ricostruire bene l'input (riducendo l'errore di ricostruzione) mentre generalizza la rappresentazione bassa a qualcosa di significativo. Pertanto, per ottenere questa proprietà, diamo un'occhiata alle varie architetture sviluppate per affrontare questo compromesso. Tipi di AutoEncoder : 1. Codificatori automatici sparsi Queste reti offrono un metodo alternativo per introdurre colli di bottiglia senza richiedere la riduzione del numero di nodi. Gestisce il compromesso forzando la scarsità su attivazioni nascoste. Possono essere aggiunti sopra o al posto dei colli di bottiglia. Esistono due modi per applicare la regolarizzazione sparsa. Il primo è utilizzare la regolarizzazione L1 e il secondo è implementare la divergenza KL. Non entrerò nei dettagli matematici della tecnica di regolarizzazione, ma per questo blog è sufficiente una breve panoramica. Figura 2 – Rappresentazione schematica di un autoencoder sparso 2. Denoising degli autoencoder Gli autoencoder sono stati considerati reti neurali con ingressi e uscite identici. L'obiettivo principale è riprodurre l'input nel modo più accurato possibile evitando colli di bottiglia delle informazioni. Tuttavia, un altro modo per progettare un codificatore automatico consiste nel perturbare leggermente i dati di input ma mantenere i dati puri come output di destinazione. Con questo approccio, il modello non può semplicemente creare una mappatura dai dati di input ai dati di output perché non sono più simili. Quindi l'uso di questa opzione di regolarizzazione introduce del rumore nell'input mentre l'autoencoder dovrebbe ricostruire una versione pulita dell'input. Figura 3 – Rappresentazione schematica di un Denoising Autoencoder 3. Autocodificatori contrattuali Mentre nel caso precedente l'enfasi era sul rendere l'encoder più resiliente ad alcune perturbazioni dell'input, in questi tipi di architetture l'enfasi è sul rendere l'estrazione delle caratteristiche meno sensibile a piccole perturbazioni. È scritto. Ciò si ottiene facendo in modo che l'encoder ignori le modifiche nell'input che non sono significative per la ricostruzione da parte del decoder. L'idea principale alla base di questa tecnica di regolarizzazione è che le potenziali rappresentazioni non importanti per la ricostruzione vengono ridotte dal fattore di regolarizzazione. Al contrario, permangono variazioni importanti perché hanno un grande impatto sull'errore di ricostruzione. Figura 4 – Rappresentazione schematica di un autoencoder contrattuale Applicazioni degli Autoencoder Se hai letto fino a qui , dovresti avere le basi teoriche che devi conoscere sugli autoencoder. Ti starai chiedendo dove si trovi l'applicazione di queste strutture nell'apprendimento automatico. Questa sezione fa luce sulle applicazioni di queste strutture. La riduzione della dimensionalità è stata una delle prime applicazioni dell'apprendimento della rappresentazione. La riduzione delle dimensioni può aiutare a migliorare le prestazioni del modello in diversi casi. Un altro compito che avvantaggia ancor più della riduzione della dimensionalità è il recupero delle informazioni. Altre applicazioni degli autoencoder includono il rilevamento di anomalie, l'elaborazione di immagini, il denoising dei dati, la scoperta di farmaci, la previsione della popolarità e la traduzione automatica. Conclusione sugli autoencoder Ecco perché ho parlato di autoencoder nel blog di oggi. Gli autoencoder sono architetture originariamente progettate per aiutare con la riduzione della dimensionalità. Tuttavia, le sue applicazioni si sono moltiplicate molte volte nel tempo. In primo luogo, abbiamo brevemente introdotto la struttura di un autoencoder e come si ottiene la compressione dei dati a livello di codice. Abbiamo quindi discusso i diversi tipi di codificatori automatici e il modo in cui ognuno aiuta a gestire i compromessi di varianza bias. Infine, abbiamo finito di discutere gli scenari in cui gli autoencoder vengono applicati nel mondo di oggi. Quindi i punti chiave di questo articolo sono: L'approccio architettonico generale verso gli autoencoder Il compromesso bias-varianza affrontato dagli autoencoder In che modo l'applicazione di diverse tecniche di regolarizzazione può consentirci di gestire il compromesso. Ciò ti consentirebbe di pensare a più algoritmi di questo tipo e di sviluppare architetture più recenti. Le aree in cui questo tipo di architettura trova applicabilità. Credo di poterti lasciare con una profonda comprensione teorica dell'architettura e dei casi d'uso degli Autoencoder da questa discussione nel blog. Se questo articolo ti entusiasma, ti esorto ad andare avanti e sviluppare una tale architettura per te stesso. È un buon progetto da avere con te.
- Come fare il fine-tune di GPT-3 utilizzando Python per migliorare le prestazioni
Il "fine-tune" è un'arte intrigante nel mondo del deep learning, un'approccio al transfer learning in
- Come creare video con l'intelligenza artificiale i 8 tool online gratis
Gli strumenti di generazione di video AI utilizzano tecniche di deep learning e natural language processing Inoltre, poiché utilizzano tecniche di deep learning, sono in grado di analizzare il testo e creare video
- Roadmap Completa per Imparare l'IA Generativa: la Guida Definitiva
al tuo obiettivo è addentrarsi nei campi del data science e del deep learning. solide fondamenta di data science e deep learning. Senza un'accurata preparazione, anche il miglior modello di deep learning fallirà. Una volta pronti i dati, è il momento di addentrarsi nelle architetture di deep learning. Ma il deep learning non è tutto.
- Come valutare algoritmi di Machine Learning o Apprendimento Automatico
Riepilogo su Come valutare algoritmi di Machine Learning In questo post hai appreso l'importanza di impostare Il tuo Primo Programma di Machine Learning con Python e Google Colab Il tuo primo Programma di Deep Learning l'algoritmo Perceptron da zero in Python Implementare le reti neurali ricorrenti (RNN) con Python e Keras Deep learnign e python : Object Recognition e Object Predict esempio Come salvare e caricare il tuo modello di deep learning
- Come implementare l'algoritmo Perceptron da zero in Python esempio pratico machine learning
Puoi saperne di più su questo set di dati nel repository UCI Machine Learning . Applicare la tecnica ad altri problemi di classificazione nel repository di machine learning UCI.
- È Arte o non è Arte?
Il flusso delle immagini generate attraverso AI (Artificial Intelligence) sta inondando il web e pare inarrestabile. Una stima quantitativa precisa del fenomeno non esiste ma si parla di diversi milioni di immagini generate e pubblicate solo negli ultimi sei mesi (da Agosto 2022 a Febbraio 2023). Gli strumenti per la generazione di immagini basati su AI si susseguono a ritmi incalzanti, senza precedenti neanche per il settore della tecnologia avanzata. DALLE-2, MidJourney, Stable Diffusion sono solo alcuni tra i nomi più celebri balzati agli onori della ribalta nel giro di pochi mesi. C’è chi parla oramai di un nuovo settore dell’Arte figurativa: l’AI Art, cioè l’arte di immagini generate attraverso AI. Si può, però, definire vera Arte l’AI Art? Il dibattito sulla questione è accesissimo e non sorprende. Il mondo dell’arte è stato letteralmente preso d’assalto e, per alcuni, rischia di essere travolto. Molte sono le accuse rivolte all’AI Art [1] ma la più importante riguarda il fatto che nella generazione di immagini manchi un vero sforzo artistico. Basta scrivere un testo (detto “prompt”) in cui si definisce che cosa si vuol ottenere e lo strumento genera automaticamente l’immagine. Ben altro sforzo rispetto a dipingere un quadro su una tela! A questa accusa si può, in prima battuta, rispondere ricordando che anche Charles Baudelaire aveva mosso una simile obiezione nei confronti della fotografia nel celebre “Salon de 1859” [2]. Anzi Baudelaire era stato ben più feroce dei detrattori della AI Art di oggi: “Se si consentirà alla fotografia di servire da supplemento all’arte in qualcuna delle sue funzioni, questa sarà soppiantata e corrotta, grazie anche alla stupidità delle moltitudini che sono il naturale alleato della fotografia ”. Per fortuna, niente di quanto vaticinato da Baudelaire è accaduto ma, anzi, l’Arte, liberata dalla necessità di rappresentare pedissequamente la Realtà, ha potuto esprimersi in movimenti come l’Impressionismo o il Surrealismo [3]. La questione del “basso sforzo” è, poi, un mito che ci proponiamo di sfatare attraverso una descrizione minuziosa (quasi scientifica) del processo di generazione di una immagine artistica. Come viene generata la AI Art Per comprendere quanta parte abbia l’essere umano nel processo di generazione di un’immagine artistica usando la “Artificial Intelligence (AI)” conviene far riferimento a uno schema semplice ma veritiero su come si svolge il processo di generazione (Fig. 1). Figura 1 – Il processo di generazione di una immagine artistica usando AI In pratica il processo di generazione è la ripetizione di una interazione tra umano e modello (la componente di AI): Dall’umano al modello attraverso un prompt e qualche altro parametro (prompt + params); Dal modello all’umano attraverso una immagine-risultato (image-response). Se l’immagine-risultato non corrisponde all’idea che l’umano trova soddisfacente (esteticamente, come fedeltà di rappresentazione) l’input verso il modello è cambiato e il processo si ripete finché non si giunge a un’immagine soddisfacente. Che cosa c’è dentro il modello? Dentro il modello c’è uno spazio latente (multimodal latent space) formato da parole e feature di immagini, cioè c’è uno spazio latente multimodale. Questo spazio latente multimodale è stato allestito attraverso il “training” del modello usando un dataset di parole e corrispondenti immagini. Si osserva che sia le parole che le immagini provengono da altri umani attraverso le opere degli artisti, del passato e del presente, e attraverso la descrizione delle opere. Dal punto di vista del modello quando l’umano inserisce un input (prompt+params) si determina una posizione dentro lo spazio latente e da quella posizione con un determinato algoritmo si sintetizza un’immagine, combinando le feature delle immagini nei pressi del punto determinato dal prompt. L’umano, dunque, è, in pratica, un esploratore dello spazio latente del modello. La pratica di generazione mostra come esistono zone produttive (miniere) e zone improduttive (deserto). Talvolta l’umano intercetta una miniera con prompt improbabili o non attinenti con l’argomento del prompt. C’è una certa dose di casualità nel processo di generazione che corrisponde alla casualità di alcune tecniche pittoriche moderne. Che cosa c’è dentro l’umano? Nell’umano c’è, essenzialmente un Idea dell’opera che si vuol realizzare. Da un punto di vista antropologico l’umano è un insieme complesso, dotato di una densità misteriosa, non conoscibile completamente. Anche l’Idea dell’umano può cambiare nel corso del processo di generazione di un’immagine. In base alla immagine-risultato l’umano può cambiare idea. Per esempio perché si è costatata l’impossibilità di produrre un’immagine che corrisponda in modo soddisfacente all’Idea o, semplicemente, perché il risultato-immagine ha fatto nascere un’idea migliore di quella originale. Il processo di generazione di un’immagine da parte dell’umano è quindi un processo creativo non deterministico. Sappiamo, poi, che anche la creatività umana non è infinita ma è delimitata da archetipi universali, come ha sottolineato Jung [4]. Tuttavia anche nella generazione con AI si possono riconoscere gli stili dei diversi umani che prediligono certi temi e certe aree dello spazio latente invece che altre. In fondo, anche in un’opera d’arte tradizionale è sempre un’idea che guida l’artista. Si pensi allo stile di Michelangelo Buonarroti: uomini, donne e bambini sono, essenzialmente, “eroi” nerboruti (V. Tondo Doni, Fig. 2). Figura 2 – il Tondo Doni di Michelangelo Post-produzione Una volta che l’umano abbia ottenuto una immagine-risultato soddisfacente sono possibili altre operazioni successive: inpainting – Si tolgono dall’immagine alcuni elementi attraverso l’AI; outpainting – Si aggiungono nuovi elementi all’immagine tramite AI; Photoshop – Si effettuano delle correzioni usando un editor di immagini; ri-mediazione attraverso la pittura – L’immagine è stampata, ad esempio su tela, e l’artista umano prende colori e pennelli per cambiare l’immagine stampata; altre elaborazioni – L’umano può decidere di generare un video dall’immagine, aggiungere una colonna sonora, creare dei rumori o, addirittura, degli odori. Questo mette in luce il fatto che un’opera d’arte può essere ottenuta con l’AI ma non solo. L’Arte è qualcosa di più complesso e libero della semplice AI. Insomma, È Vera Arte? Per noi la risposta è netta e chiara: è vera Arte! Per alcuni questa affermazione può essere uno shock ma, per onestà, questa nuova realtà non si può negare. È chiaro che con l’AI la manualità non conta. Non si prendono in mano pennello e colori ma il processo creativo che si compie è fortemente umano. Anche la componente casuale con cui viene generata un’immagine non toglie nulla al processo artistico, come mostra tanta parte di Arte del Novecento. Comunque, a parte i ragionamenti, le polemiche e, talvolta, anche le elucubrazioni alla fine ciò che conta è il giudizio finale, è la percezione di un utente finale che valuta, secondo il suo giudizio soggettivo, il valore estetico dell’opera. Si riporta una serie di opere generate dall’autore di questo articolo senza commento (Fig. 3-6). Ognuno giudichi da solo. Per saperne di più sull’Intelligenza Artificiale e le sue applicazioni nel mondo dell'arte, vi invito a visitare il sito web di Mathema, l’azienda di cui sono CEO, e di seguirci sulla nostra pagina Linkedin ufficiale. Riferimenti [1] Ennio Bianco, “E’ Arte o non è Arte, è Arte o non è Arte, …”, 2022 [2] Charles Baudelaire, Salon de 1859 [3] Cathy Reisenwitz, "Artist Ellen Maidman-Tanner on why AI is actually good for art" [4] M. Mazzeschi, "Why AI can generate art we can understand: a Jungian approach"
- Transfer learning cos'è e come ottenere il massimo dai modelli di machine learning con python
Indice degli argomenti transfer learning : Introduzione al transfer learning Cos'è il transfer learning del transfer learning Conclusioni sul transfer learning Introduzione al transfer learning Se sei appassionato volta negli anni '90, ma è diventato particolarmente popolare negli ultimi anni con l'exploit del deep learning. Con l'aumento della potenza di calcolo e l'espansione delle librerie di deep learning, come PyTorch e
- Algoritmi Supervisionati e Non Supervisionati la vera differenza nel Machine Learning
learning? Qual è la differenza tra Intelligenza Artificiale, Machine Learning, Deep Lear... Il tuo Primo Programma di Machine Learning con Python e Google Colab Il tuo primo Programma di Deep Learning l'algoritmo Perceptron da zero in Python Implementare le reti neurali ricorrenti (RNN) con Python e Keras Deep di deep learning
- Migliori Librerie di Python per il Machine Learning: Una Guida Completa
ML NumPy è una libreria fondamentale per qualsiasi progetto di Machine Learning. : Una Guida Completa Librerie Fondamentali per il Machine Learning Nella vasta scena del machine learning Librerie Emergenti e Innovazioni nel Machine Learning Il campo del machine learning è in continua evoluzione spiccano alcune tendenze promettenti, come: Libreria Descrizione Fastai Fastai è una libreria per il deep Hugging Face Hugging Face è una piattaforma per il deep learning e il NLP, nota per la sua vasta raccolta
- Apprendimento per rinforzo ( Reinforcement learning )
Deep Q-Reti. KerasRL KerasRL è unalibreria Python di Deep Reinforcement Learning . Implementa alcuni algoritmi RL all'avanguardia e si integra perfettamente con lalibreria di Deep Learning Si concentra su Q-Learning e Deep Q-Network multi-agente. Con il deep learning, i modelli possono essere costruiti utilizzando milioni di pesi addestrabili, liberando














