top of page

Risultati Ricerca Intelligenza Artificiale Italia

239 risultati trovati con una ricerca vuota

  • APPRENDIMENTO RINFONRZATO

    Questo tipo di Apprendimento è molto diverso dal tipo di apprendimento visto precedentemente, anche se da esperti del settore viene considerato un sottogruppo dell'Apprendimento con Supervisione. Come prima, ti propongo un semplice schema per provare a spiegarti come funzioni. Al principio di questo Apprendimento abbiamo un Agente, ossia un algoritmo che riceve in input lo stato dell'ambiente dove si trova. Questo Agente in base agli input ricevuti effettua un'azione, la quale viene valutata da una Funzione Ricompensa che genera un feedback per il nostro Agente il quale ricalcolerà la prossima azione in base alla ricompensa ricevuta. Vediamo ora un esempio: Immaginiamo che il nostro Agente sia un topolino e immaginiamo si trovi all'interno di un labirinto ( Ambiente ) con l'obiettivo di arrivare ad una carota ( Target ). Il nostro Agente è in grado di muoversi all'interno dell'ambiente quindi é in grado di compiere delle azioni. Come puoi vedere dall'immagine, abbiamo supposto che la prima matrice sia il labirinto e gli zeri dentro le celle siano le ricompense di partenza. Dopo aver allenato il nostro Agente, questo avrà trovato le giuste ricompense per arrivare alla soluzione del labirinto, mangiando finalmente la sua carota!

  • Apprendimento profondo o Deep Learning

    Deep Learning utilizza TensorFlow e Keras per creare e addestrare reti neurali per dati strutturati. Rete neurale artificiale Rete neurale convoluzionale Rete neurale ricorrente TensorFlow Keras PyTorch Capire il funzionamento di Un singolo neurone Rete neurale profonda Discesa gradiente stocastico Overfitting e underfitting Normalizzazione batch di abbandono Classificazione binaria

  • I 6 Step per diventare Data Scientist

    Testo Lezione : Ecco sei passaggi comuni da considerare se sei interessato a perseguire una carriera nella scienza dei dati: Perseguire una laurea in scienze dei dati o un campo strettamente correlato (Matematica, Fisica, Statistica, Informatica, Ing. Informatica) Acquisisci le competenze necessarie per diventare un data scientist Considera l'idea di prendere una specializzazione Ottieni il tuo primo lavoro di data scientist di livello base Esamina ulteriori certificazioni di data scientist e l'apprendimento post-laurea Partecipa continuamente a master in data science Ebbene si, purtroppo NON si diventa Data Scientist facendo corsi ( privati ) da meno di 200 - 300 ore di formazione. Sei scettico su questo ? Pensi davvero che per aver voce in capitolo con grandi manager aziendali, basti avere nel curriculum dei semplici attestati di partecipazione a dei corsi ? Vediamo nella prossimo step quali sono le responsabilità del Data Scientist e capirai perchè servono anni di preparazione interdisciplinare prima di poter affermarti come tale.

  • Le Responsabilità quotidiane di un Data Scientist

    Quotidianamente, le responsabilità di un data scientist possono includere: Risolvere i problemi aziendali attraverso ricerche non indirizzate e inquadrare domande di settore aperte Estrarre enormi volumi di dati strutturati e non strutturati. Eseguire query su dati strutturati da database relazionali utilizzando linguaggi di programmazione come SQL. Raccogliere dati non strutturati tramite web scraping, API e sondaggi. Impiega metodi analitici sofisticati, apprendimento automatico e metodi statistici per preparare i dati da utilizzare nella modellazione predittiva e descrittiva Pulisce accuratamente i dati per scartare le informazioni irrilevanti e preparare i dati per la preelaborazione e la modellazione Eseguire l'analisi esplorativa dei dati (EDA) per determinare come gestire i dati mancanti e cercare tendenze e/o opportunità Scoprire nuovi algoritmi per risolvere problemi e costruire programmi per automatizzare il lavoro ripetitivo Comunicare previsioni e risultati ai reparti IT e di gestione attraverso visualizzazioni e report dei dati efficaci Raccomandare modifiche convenienti alle procedure e alle strategie esistenti Ogni azienda avrà una visione diversa delle attività lavorative di data science. Alcuni trattano i loro data scientist come analisti di dati o combinano i loro compiti con i data engineer ; altri hanno bisogno di esperti di analisi di alto livello esperti in un intenso apprendimento automatico e visualizzazioni dei dati. Man mano che i data scientist raggiungono nuovi livelli di esperienza o cambiano lavoro, le loro responsabilità cambiano invariabilmente. Ad esempio, una persona che lavora da sola in un'azienda di medie dimensioni può dedicare buona parte della giornata alla pulizia e alla raccolta dei dati. A un dipendente di alto livello in un'azienda che offre servizi basati sui dati potrebbe essere chiesto di strutturare progetti di big data o creare nuovi prodotti. Spero che tutte queste responsabilità ti abbiano fatto capire che essere uno scienziato dei dati è completamente diverso dall'essere la persona che impara ad applicare modelli già conosciuti nella comunità di Python ai dati aziendali.

  • GAMING

    Giocando per mettere piede sui social, ci sono molti dettagli con cui le società sportive devono confrontarsi. Società di gioco d'azzardo, Zynga ha lanciato giochi come Zynga Poker, Farmville, Chess with Friends, Speed ​​Guess Something e Words with Friends sui social media. Questo ha portato molte connessioni utente e produce grandi set di dati. È qui che l'industria dei giochi ha bisogno della scienza dei dati per utilizzare questi dati raccolti dai giocatori su tutti i social network. L'analisi dei dati offre ai giocatori una nuova e avvincente distrazione per stare al passo con la gara! Uno degli usi più interessanti della scienza dei dati è all'interno delle funzionalità e dei processi che circondano lo sviluppo del gioco. Analisi dei dati di gioco L'analisi dei dati è responsabile della valutazione e della visualizzazione delle prestazioni del servizio e dei dati di conversione degli utenti per trovare opportunità per migliorare il coinvolgimento e la fidelizzazione degli utenti. Usano tecniche di analisi dei dati per identificare relazioni logiche, modelli, stili e modelli di comportamento degli utenti da insiemi di dati complessi per guidare mappe stradali e costruire sistemi di rilevamento automatizzati e monitorare le loro prestazioni. Identificare un oggetto La grafica realistica, l'uso dell'ingegno artificiale e il superamento dei confini delle realtà grafiche sono ora tra le funzioni chiave degli sviluppatori e dei designer di giochi. Si prevede che la tecnologia di riconoscimento delle immagini trasformerà l'industria dei giochi. Insieme ai modelli di acquisizione degli oggetti, vengono utilizzati dall'ingegnere per creare una trasformazione naturale di scene e movimenti nello spazio di gioco reale. Ad esempio, questi modelli vengono spesso utilizzati per distinguere giocatori di squadre diverse e per dare istruzioni a un particolare personaggio all'interno di una squadra. La differenza tra forme, oggetti, ostacoli e figure diventa più facile e veloce per il giocatore. Inoltre, vengono utilizzati modelli e algoritmi di identificazione degli oggetti per identificare i movimenti del corpo al fine di trasmettere e visualizzare queste azioni sullo schermo di gioco interattivo. Marketing e pubblicità personalizzati Il marketing personalizzato viene utilizzato attivamente in vari settori per evitare pubblicità inutili, fastidiose e inefficaci. Sia i marketer che gli sviluppatori di giochi sono interessati alle interazioni incentrate sul cliente e portano alla creazione di messaggi di marketing significativi e li inviano alle persone giuste. In ogni caso, i fornitori di videogiochi stanno raccogliendo dati che aiuteranno ad attirare più pubblico. Il marketing personalizzato nei giochi aiuta ad aumentare l'attività degli utenti e allo stesso tempo ad attirarne di nuovi. Ciò può essere ottenuto grazie all'adeguamento specifico del messaggio pubblicitario. Per assicurarti che i tuoi annunci siano chiaramente visibili, devi sapere quali giocatori stanno rispondendo all'annuncio e quali no.

  • GOVERNANCE

    I ruoli di governance per i team di data science e di analisi stanno diventando più comuni, perché le aziende utilizzano set di dati grandi e complessi provenienti da una varietà di fonti interne ed esterne. Una delle funzioni chiave di questo ruolo è eseguire l'analisi e la convalida dei set di dati al fine di creare fiducia nei set di dati sottostanti. Vogliamo creare fiducia nei nostri set di dati prima di utilizzarli come input per i nostri modelli, in cui gli output sono visibili ai clienti. In Windfall , utilizziamo una varietà di diverse fonti di dati pubbliche e proprietarie come input per i nostri modelli di patrimonio netto. Stiamo assumendo per un ruolo di data scientist di governance incentrato su aspetti come l'integrità dei dati, per garantire l'utilizzo di set di dati convalidati nei nostri processi di modellazione. Poiché si tratta di un ruolo più recente, volevo identificare le funzioni chiave che un data scientist in questo ruolo dovrebbe svolgere: Mettere in discussione le ipotesi sottostanti sui dati Identificare come risolvere le discrepanze nelle origini dati Valutare se le nuove fonti di dati sono preziose Assunzioni in discussione Una delle sfide principali quando si utilizzano i set di dati è determinare la validità dei dati. Spesso i dati sono obsoleti o campionati in modo non rappresentativo della popolazione complessiva. Se utilizzi un'origine dati che ha diversi anni, molte conclusioni che potrebbero essere tratte dai dati potrebbero non essere più vere. Ad esempio, l'utilizzo dei dati sulla connettività a banda larga nel 2010 sarebbe problematico per determinare l'impatto dell'abrogazione della neutralità della rete sulle famiglie statunitensi di oggi. Nel caso dell'articolo FiveThirtyEight, è stato utilizzato un set di dati campionati in cui la distribuzione degli abbonati alla banda larga variava in modo significativo rispetto ad altre fonti di dati analizzate. Per mettere in discussione le ipotesi sottostanti sui dati, è spesso necessario controllare i dati rispetto a fonti diverse. Ad esempio, i dati a livello di transazione forniti dalla FEC sui contributi politici possono essere confrontati con gli importi aggregati riportati dalle campagne e le stime dei valori delle abitazioni possono essere confrontate con le stime di Zillow e Redfin. Un ruolo di governance darà la priorità ai punti dati da ispezionare manualmente, al fine di creare maggiore fiducia nei set di dati e assicurarsi che le conclusioni raggiunte da un set di dati campione possano essere applicate a una popolazione più ampia. Risoluzione delle discrepanze Un altro aspetto di questo ruolo è determinare come risolvere i problemi con i set di dati quando vengono scoperti. Nel caso in cui vengano pubblicati risultati errati, dovrebbe essere pubblicato un post-mortem che spieghi come i risultati cambiano in base alle informazioni appena scoperte, e l'articolo FiveThirtyEight ne è un ottimo esempio. Ma se i dati di input vengono invece utilizzati per la modellazione, il ruolo dovrebbe collaborare con un team di ingegneri per risolvere questi problemi nella pipeline dei dati. Una delle situazioni non banali che abbiamo riscontrato in Windfall è la gestione di transazioni su più proprietà, in cui le proprietà a più indirizzi vengono acquistate come parte della stessa transazione. La gestione di questi tipi di transazioni richiedeva l'aggiunta di nuove regole ai calcoli del nostro modello di valutazione automatizzato (AVM). Proprio come la produzione di un modello, uno scienziato dei dati di governance dovrebbe essere in grado di mettere in produzione le correzioni alla qualità dei dati. Ciò può comportare la consegna di uno script o l'invio di PR con modifiche al codice. Valutazione di nuove fonti Un'ulteriore funzione che stiamo definendo per un ruolo di governance è valutare se vale la pena utilizzare nuove origini dati per scopi di modellazione. In Windfall, questo significa determinare se l'aggiunta di una nuova fonte di dati migliorerà l'accuratezza dei nostri modelli di patrimonio netto. Uno scienziato dei dati in questo ruolo dovrebbe essere in grado di lavorare con dati di terze parti in una varietà di formati di dati e tipi di fonti ed eseguire analisi esplorative sui dati. Spesso l'obiettivo dell'esplorazione di un nuovo set di dati è verificare le correlazioni tra gli attributi in diversi set di dati e gli scienziati dei dati devono essere in grado di lavorare in modo efficace con origini dati disparate. Profilo del ruolo di governance Cosa cercano le aziende nel ruolo di governance? In Windfall, stiamo cercando data scientist con le seguenti competenze: EDA: Dimostrata esperienza di analisi esplorativa dei dati (EDA) attraverso set di dati grandi e disordinati. Ad esempio, lavorare con un'API di terze parti e testare i presupposti di base sui dati. Scripting: come accennato in precedenza, i data scientist dovrebbero essere in grado di produrre le proprie scoperte. R e Python sono un buon punto di partenza per impostare ricerche riproducibili, ma vogliamo anche che i risultati dei progetti di scripting siano traducibili nella nostra pipeline di dati. Scrittura: la comunicazione scritta e verbale è fondamentale per questo ruolo, perché il ruolo di governance deve essere in grado di condividere i risultati con team tecnici, leader aziendali e fornitori di dati di terze parti. Ciò include la scrittura di report scritti di lunga durata, la creazione di visualizzazioni accattivanti e la documentazione di nuove origini dati.

  • VIAGGI & TRASPORTI

    Non è solo il miglioramento dell'accesso alle fonti interne di dati di viaggio (ad es. registri di prenotazione, utilizzo di smartphone, profili dei clienti, itinerari, moduli di reclamo e feedback, dati dei sensori) che fa emergere i data scientist. Sono i potenziali vantaggi della combinazione di tali fonti con set di dati esterni (ad es. ricerca, social media, recensioni, meteo e rapporti sul traffico) per risolvere problemi, ridurre i costi e anticipare eventi futuri. Offerte veramente personalizzate Oggi le agenzie di viaggio utilizzano i big data per creare una visione a 360 gradi di ogni cliente. Al posto delle raccomandazioni generiche, le aziende sono ora a portata di mano della possibilità di fornire . Questa vista a tutto tondo può essere assemblata da una serie di set di dati: Targeting comportamentale – ad es. comportamento dei visitatori del sito web Social media – ad es. post sui viaggi, recensioni di amici Record di localizzazione Itinerari Modelli di acquisto precedente Dati sull'utilizzo del dispositivo mobile Elaborazione delle immagini Analisi predittiva E molto, molto altro Alcuni di questi set di dati (ad es. targeting comportamentale) saranno più rilevanti per i nuovi clienti; altri (ad es. modelli di acquisto precedenti) entreranno in gioco quando le aziende sono alla ricerca di modi per effettuare vendite incrociate e upselling. Hai un potenziale cliente in Ohio che è spesso su Facebook a visitare pagine su Venezia? Crea un'offerta feed Facebook con uno sconto sui voli per l'Italia. Hai informazioni che dimostrino che per il tuo passeggero un posto a sedere comodo è più importante del prezzo? Dai un vantaggio al tuo frequent flyer prenotando un posto sul corridoio per la Florida. L'obiettivo è creare l'offerta giusta attraverso il canale giusto al momento e nel luogo giusti. Servizio clienti migliorato L'era della personalizzazione sta creando un altro vantaggio. Offre all'industria dei trasporti la possibilità di migliorare il proprio servizio clienti. Delta Airlines fornisce ai propri assistenti di volo uno strumento di servizio per gli ospiti da utilizzare sui propri dispositivi SkyPro. Gli operatori utilizzano questo dispositivo e strumento per migliorare l'esperienza del cliente rivedendo le preferenze. Allo stesso modo, gli assistenti di United Airlines hanno uno strumento che fornisce loro informazioni sui clienti come il loro ultimo volo, le esigenze dietetiche e l'orario delle coincidenze. Identificazione degli MVC (clienti più preziosi) Naturalmente, alcuni clienti viaggeranno più di altri. Ciò significa che le aziende devono essere profondamente consapevoli dei grandi attori in modo da poter evitare l'abbandono dei clienti. L'industria dei viaggi ha già un'enorme eredità di dati sugli MVC dai programmi di fidelizzazione. Il trucco sta nel combinare queste informazioni storiche con analisi predittive e in tempo reale per anticipare ciò che gli MVC probabilmente vorranno in futuro. Costa molto di più acquisire un nuovo cliente che mantenerne uno vecchio. Up-Selling e Cross-Selling Supponiamo che tu stia viaggiando a Buenos Aires per una conferenza d'affari di quattro giorni e che tu abbia deciso di prenderti un fine settimana per esplorare la città. Cerchi un volo che parte domenica e torna lunedì in anticipo. Se la tua compagnia aerea ha investito in big data, ti offrirà opportunità di cross-selling e up-selling dal momento in cui inizi la tua ricerca. Potresti: Ricevi un'offerta personalizzata nella tua casella di posta elettronica Prenota in anticipo i posti Economy Plus Lasciati tentare dagli sconti sugli hotel convenzionati con la tua compagnia aerea Ricevere un buono pasto gratuito dallo steward Trova un annuncio per tour della città del fine settimana che appare sul tuo intrattenimento di bordo Quando le aziende hanno le risorse per collaborare con altri (ad esempio, compagnie aeree con aeroporti, servizi ferroviari e taxi), le opportunità di vendita incrociata possono salire alle stelle. Nel mondo dei viaggi, profili comportamentali completi dei clienti + maggiore collaborazione = più generazione di entrate. Viaggio più sicuro Quando si tratta di sicurezza, i big data possono essere letteralmente un vero toccasana. Gli aerei, i treni e le automobili di oggi sono dotati di un'ampia gamma di sensori . Questi forniscono ai centri di controllo un flusso continuo di dati in tempo reale su ogni aspetto del viaggio (ad esempio, abilità di pilotaggio o comportamento del conducente, ambiente, prestazioni meccaniche, ecc.). Con queste informazioni in mano, gli scienziati dei dati sui trasporti stanno creando algoritmi complessi per prevedere i problemi e, ancora meglio, prevenirli. Parte critica che si sta consumando? Sostituirlo prima che diventi un problema. Uno dei tuoi autisti dimentica costantemente un passaggio importante? Portalo fuori dal percorso per la riqualificazione. Problema che non può essere risolto a mezz'aria? Prepara una squadra di manutenzione con gli strumenti giusti all'arrivo. Questi passaggi non solo riducono i costi e aumentano l'affidabilità, imperativo in un settore 24 ore su 24, 7 giorni su 7 come i viaggi e i trasporti, ma aiutano a evitare incidenti catastrofici. Efficienza migliorata Oltre ai sensori, i data scientist stanno estraendo informazioni da tutti gli angoli dell'universo digitale per semplificare le operazioni quotidiane. Ad esempio, le aziende sono: Integrando i dati sulle tendenze di prenotazione anticipate giornaliere, i dati storici interni e i dati comportamentali dei clienti per creare il sistema di gestione del rendimento definitivo "nessun posto lasciato vuoto". Estrarre dati su meteo, vento e rapporti sul traffico per prevedere i ritardi e il fabbisogno di carburante, reindirizzare i passeggeri o modificare le rotte. Utilizzo di algoritmi predittivi per indirizzare i conducenti con uno smartphone ai parcheggi disponibili più vicini. L'automazione è stata di grande aiuto in questo sforzo: I meccanismi di localizzazione automatica dei veicoli (AVL) forniscono informazioni ai passeggeri su segnali digitali e app personali. Il conteggio automatico dei passeggeri (APC) e gli strumenti tariffari informano le compagnie di transito quando aumentare o ridurre le dimensioni della flotta. In futuro, anche le prenotazioni dei tuoi viaggi potrebbero essere automatizzate. Con solo un'idea sfocata nel suo motore di ricerca come inizio, la start-up di viaggi Hopper mira a utilizzare algoritmi di big data per pianificare e prenotare il tuo viaggio personalizzato. Nessuno sforzo richiesto.

  • DATA SCIENTIST & INTELLIGENZA ARTIFICIALE

    La premessa di base qui è sviluppare algoritmi in grado di ricevere dati di input e sfruttare modelli statistici per prevedere un output mentre si aggiornano gli output man mano che nuovi dati diventano disponibili. I processi coinvolti hanno molto in comune con la modellazione predittiva e il data mining. Questo perché entrambi gli approcci richiedono di cercare tra i dati per identificare i modelli e adattare il programma di conseguenza. La maggior parte di noi ha sperimentato l'apprendimento automatico in azione in una forma o nell'altra. Se hai fatto acquisti su Amazon o guardato qualcosa su Netflix, quei consigli personalizzati (prodotto o film) sono l'apprendimento automatico in azione. La scienza dei dati, d'altra parte, impiega discipline informatiche come la matematica e la statistica e incorpora tecniche come il data mining, l'analisi dei cluster, la visualizzazione e, sì, l'apprendimento automatico. Quindi, la principale differenza tra i due è che la scienza dei dati come termine più ampio non si concentra solo su algoritmi e statistiche, ma si occupa anche dell'intera metodologia di elaborazione dei dati. L'apprendimento automatico è un sottoinsieme dell'intelligenza artificiale. Mentre la scienza dei dati è un campo interdisciplinare per estrarre conoscenze o intuizioni dai dati

  • JAVA

    Java è un altro linguaggio generico orientato agli oggetti. Questo linguaggio sembra essere molto versatile, essendo utilizzato nell'elettronica incorporata, nelle applicazioni web e nelle applicazioni desktop. Può sembrare che uno scienziato dei dati non abbia bisogno di Java, tuttavia, framework come Hadoop vengono eseguiti su JVM. Questi framework costituiscono gran parte dello stack di big data. Hadoop è un framework di elaborazione che gestisce l'elaborazione e l'archiviazione dei dati per le applicazioni di big data in esecuzione in sistemi cluster. Ciò consente l'archiviazione di enormi quantità di dati e consente una maggiore potenza di elaborazione con la capacità di gestire attività praticamente illimitate contemporaneamente. Inoltre, Java ha effettivamente una serie di librerie e strumenti per l'apprendimento automatico e la scienza dei dati, è facilmente scalabile per applicazioni più grandi ed è veloce.

  • Giulia

    Julia è un altro linguaggio di programmazione di alto livello ed è stato progettato per l'analisi numerica e la scienza computazionale ad alte prestazioni. Ha una gamma molto ampia di usi come la programmazione web sia per il front-end che per il back-end. Julia è in grado di essere incorporata nei programmi utilizzando la sua API, supportando la metaprogrammazione . Si dice che questo linguaggio sia più veloce per Python perché è stato progettato per implementare rapidamente concetti matematici come l'algebra lineare e si occupa meglio delle matrici. Julia fornisce lo sviluppo rapido di Python o R mentre produce programmi che funzionano alla stessa velocità dei programmi C o Fortran.

  • Scala

    Scala è un linguaggio di programmazione generale che fornisce supporto per la programmazione funzionale, la programmazione orientata agli oggetti, un forte sistema di tipo statico e l'elaborazione simultanea e sincronizzata. Scala è stato progettato per risolvere molti problemi di Java. Ancora una volta, questo linguaggio ha molti usi diversi dalle applicazioni Web all'apprendimento automatico, tuttavia, questo linguaggio copre solo lo sviluppo front-end. Il linguaggio è noto per essere scalabile e adatto anche alla gestione dei big data, poiché il nome stesso è un acronimo di "linguaggio scalabile". Scala abbinato ad Apache Spark consente di eseguire l'elaborazione parallela su larga scala. Inoltre, ci sono molti framework di data science popolari e ad alte prestazioni scritti su Hadoop per essere utilizzati in Scala o Java.

  • Introduzione

    Questi termini sono spesso usati in modo intercambiabile, ma quali sono le differenze che li rendono ciascuno una tecnologia unica? La tecnologia sta diventando sempre più incorporata nella nostra vita quotidiana di minuto in minuto e, per stare al passo con il ritmo delle aspettative dei consumatori, le aziende fanno sempre più affidamento su algoritmi di apprendimento per rendere le cose più facili. Puoi vedere la sua applicazione nei social media (tramite il riconoscimento degli oggetti nelle foto) o parlando direttamente ai dispositivi (come Alexa o Siri). Queste tecnologie sono comunemente associati con l'intelligenza artificiale , machine learning , apprendimento profondo , e le reti neurali, e mentre lo fanno tutto il gioco un ruolo, questi termini tendono ad essere utilizzati in modo intercambiabile nella conversazione, che porta a una certa confusione intorno alle sfumature tra di loro. Si spera di poter utilizzare questo step del Micro corso per chiarire alcune delle ambiguità qui.

  • Spiegazione Matematica di una Rete Neurale

    Le reti neurali, e più specificamente le reti neurali artificiali (ANN), imitano il cervello umano attraverso una serie di algoritmi. A livello di base, una rete neurale è composta da quattro componenti principali: input, pesi, un bias o soglia e un output. Simile alla regressione lineare , la formula algebrica sarebbe simile a questa: Da lì, appliciamolo a un esempio più tangibile, ad esempio se dovresti ordinare o meno una pizza per cena. Questo sarà il nostro risultato previsto, o y-capello. Supponiamo che ci siano tre fattori principali che influenzeranno la tua decisione: Se risparmierai tempo ordinando (Sì: 1; No: 0) Se perdi peso ordinando una pizza (Sì: 1; No: 0) Se risparmierai denaro (Sì: 1; No: 0) Quindi, supponiamo quanto segue, dandoci i seguenti input: X 1 = 1, dal momento che non stai preparando la cena X2 = 0, poiché stiamo ottenendo TUTTI i condimenti X 3 = 1, poiché stiamo ottenendo solo 2 fette Per semplicità, i nostri input avranno un valore binario di 0 o 1. Questo tecnicamente lo definisce come un perceptron poiché le reti neurali sfruttano principalmente i neuroni sigmoide, che rappresentano valori dall'infinito negativo all'infinito positivo. Questa distinzione è importante poiché la maggior parte dei problemi del mondo reale non sono lineari, quindi abbiamo bisogno di valori che riducano l'influenza che ogni singolo input può avere sul risultato. Tuttavia, riassumere in questo modo ti aiuterà a capire la matematica sottostante in gioco qui. Andando avanti, ora dobbiamo assegnare alcuni pesi per determinare l'importanza. Pesi maggiori rendono il contributo di un singolo input all'output più significativo rispetto ad altri input. W 1 = 5, poiché dai valore al tempo W 2 = 3, poiché apprezzi restare in forma W 3 = 2, visto che hai soldi in banca Infine, assumeremo anche un valore di soglia di 5, che si tradurrebbe in un valore di bias di –5. Poiché abbiamo stabilito tutti i valori rilevanti per la nostra somma, ora possiamo inserirli in questa formula. Utilizzando la seguente funzione di attivazione, possiamo ora calcolare l'output (ovvero la nostra decisione di ordinare la pizza): In sintesi: Y-cappello(il nostro risultato previsto) = Decidi se ordinare o meno la pizza Y-cappello = (1 * 5) + (0 * 3) + (1 * 2) - 5 Y-cappello = 5 + 0 + 2-5 Y-cappello = 2, che è maggiore di zero. Poiché Y-cappello è 2, l' uscita dalla funzione di attivazione sarà 1, il che significa che ci sarà da ordinare la pizza (Cioè, che non fa la pizza amore). Se l'uscita di un singolo nodo è superiore al valore di soglia specificato, quel nodo viene attivato, inviando i dati al livello successivo della rete. In caso contrario, nessun dato viene passato al livello successivo della rete. Ora, immagina che il processo di cui sopra venga ripetuto più volte per una singola decisione poiché le reti neurali tendono ad avere più livelli "nascosti" come parte degli algoritmi di apprendimento profondo. Ogni livello nascosto ha una propria funzione di attivazione, che potenzialmente passa le informazioni dal livello precedente a quello successivo. Una volta generati tutti gli output dagli strati nascosti, vengono utilizzati come input per calcolare l'output finale della rete neurale. Ancora una volta, l'esempio sopra è solo l'esempio più semplice di una rete neurale; la maggior parte degli esempi del mondo reale sono non lineari e molto più complessi. La principale differenza tra la regressione e una rete neurale è l'impatto del cambiamento su un singolo peso. Nella regressione, è possibile modificare un peso senza influire sugli altri input in una funzione. Tuttavia, questo non è il caso delle reti neurali. Poiché l'output di uno strato viene passato allo strato successivo della rete, una singola modifica può avere un effetto a cascata sugli altri neuroni della rete.

  • Differenze tra Machine Learning e Deep Learning ?

    Come spieghiamo nel nostro articolo sull'hub di apprendimento sul deep learning , il deep learning è semplicemente un sottoinsieme del machine learning. Il modo principale in cui differiscono è nel modo in cui ogni algoritmo apprende e nella quantità di dati utilizzati da ciascun tipo di algoritmo. Il deep learning automatizza gran parte del processo di estrazione delle funzionalità, eliminando parte dell'intervento umano manuale richiesto. Consente inoltre l'uso di grandi set di dati, guadagnandosi il titolo di " apprendimento automatico scalabile " in questa conferenza del MIT. Questa capacità sarà particolarmente interessante quando inizieremo a esplorare maggiormente l'uso di dati non strutturati, in particolare perché si stima che l'80-90% dei dati di un'organizzazione non sia strutturato . L'apprendimento automatico classico o "non profondo" dipende maggiormente dall'intervento umano per l'apprendimento. Gli esperti umani determinano la gerarchia delle funzionalità per comprendere le differenze tra gli input di dati, che di solito richiedono dati più strutturati per l'apprendimento. Ad esempio, supponiamo che ti mostri una serie di immagini di diversi tipi di fast food, "pizza", "hamburger" o "taco". L'esperto umano di queste immagini determinerebbe le caratteristiche che distinguono ogni immagine come il tipo specifico di fast food. Ad esempio, il pane di ogni tipo di cibo potrebbe essere una caratteristica distintiva in ogni immagine. In alternativa, potresti semplicemente utilizzare etichette, come "pizza", "hamburger" o "taco", per semplificare il processo di apprendimento attraverso l'apprendimento supervisionato. L'apprendimento automatico "profondo" può sfruttare set di dati etichettati, noti anche come apprendimento supervisionato, per informare il suo algoritmo, ma non richiede necessariamente un set di dati etichettato. Può importare dati non strutturati nella sua forma grezza (ad esempio testo, immagini) e può determinare automaticamente l'insieme di caratteristiche che distinguono "pizza", "hamburger" e "taco" l'una dall'altra. Osservando i modelli nei dati, un modello di apprendimento profondo può raggruppare gli input in modo appropriato. Prendendo lo stesso esempio di prima, potremmo raggruppare le immagini di pizze, hamburger e tacos nelle rispettive categorie in base alle somiglianze o alle differenze identificate nelle immagini. Detto questo, un modello di apprendimento profondo richiederebbe più punti dati per migliorarne l'accuratezza, mentre un modello di apprendimento automatico si basa su meno dati data la struttura dei dati sottostante. Il deep learning viene utilizzato principalmente per casi d'uso più complessi, come assistenti virtuali o rilevamento di frodi.

  • Derivazione e Varianza

    La deviazione standard è un numero che descrive la distribuzione dei valori. Una deviazione standard bassa significa che la maggior parte dei numeri è vicina al valore medio (medio). Una deviazione standard elevata significa che i valori sono distribuiti su un intervallo più ampio. Esempio: questa volta abbiamo registrato la velocità di 7 auto: speed = [86,87,88,86,87,85,86] La deviazione standard è: 0.9 Ciò significa che la maggior parte dei valori rientra nell'intervallo di 0,9 dal valore medio, che è 86,4. Facciamo lo stesso con una selezione di numeri con una gamma più ampia: speed = [32,111,138,28,59,77,97] La deviazione standard è: 37.85 Ciò significa che la maggior parte dei valori rientra nell'intervallo 37,85 dal valore medio, che è 77,4. Come puoi vedere, una deviazione standard più alta indica che i valori sono distribuiti su un intervallo più ampio. Il modulo NumPy ha un metodo per calcolare la deviazione standard: Varianza La varianza è un altro numero che indica quanto sono distribuiti i valori. Infatti, se prendi la radice quadrata della varianza, ottieni la deviazione standard! O viceversa, se moltiplichi la deviazione standard per se stessa, ottieni la varianza! Per calcolare la varianza devi fare come segue: 1. Trova la media: (32+111+138+28+59+77+97) / 7 = 77.4 2. Per ogni valore: trova la differenza dalla media: 32 - 77.4 = -45.4 111 - 77.4 = 33.6 138 - 77.4 = 60.6 28 - 77.4 = -49.4 59 - 77.4 = -18.4 77 - 77.4 = - 0.4 97 - 77.4 = 19.6 3. Per ogni differenza: trova il valore del quadrato: (-45.4)2 = 2061.16 (33.6)2 = 1128.96 (60.6)2 = 3672.36 (-49.4)2 = 2440.36 (-18.4)2 = 338.56 (- 0.4)2 = 0.16 (19.6)2 = 384.16 4. La varianza è il numero medio di queste differenze al quadrato: (2061.16+1128.96+3672.36+2440.36+338.56+0.16+384.16) / 7 = 1432.2 Fortunatamente, NumPy ha un metodo per calcolare la varianza: Deviazione standard Come abbiamo appreso, la formula per trovare la deviazione standard è la radice quadrata della varianza: √1432.25 = 37.85 Oppure, come nell'esempio precedente, usa NumPy per calcolare la deviazione standard:

bottom of page