Risultati Ricerca Intelligenza Artificiale Italia
484 risultati trovati con una ricerca vuota
- BrainControl : Intelligenza Artificiale al Servizio Della Disabilità
BrainControl BCI, unico software brevettato che opera sulle onde cerebrali, traduce i pensieri dei pazienti in comandi ed azioni sui dispositivi portatili. Si stima che nel mondo ci siano oltre 3.000.000 di persone affette da paralisi e problemi di comunicazione, ma con abilità cognitive sufficientemente integre: è per dare loro un aiuto che nasce BrainControl. Rispondere a domande quali “Come stai?”, “Ti senti bene?” può rappresentare per molte famiglie e caregiver una sfida difficilissima da vincere perché un loro famigliare o paziente è affetto da una malattia che impedisce qualsiasi tipo di movimento volontario. Parliamo di persone alle quali, nei casi più gravi, sono preclusi anche i movimenti residui di pupille, zigomo o dita: sono i pazienti locked-in, imprigionati di fatto in un corpo completamente immobile ma dotati di capacità cognitive. Con BrainControl BCI è possibile comunicare con l’esterno grazie al pensiero. Un Software e un caschetto EEG, unitamente a un training personalizzato, sono in grado di trasformare in comandi i pensieri del paziente, dando modo di rispondere a semplici domande e di comunicare. Una risposta di poche lettere che cambia la vita a tantissime persone. BrainControl BCI è la soluzione ideata da LiquidWeb, PMI senese, che si prefigge di aiutare le persone con gravi disabilità, le loro famiglie e caregiver a migliorare la qualità di vita. Roberto Zanco, Presidente di Liquidweb dichiara: “Alla base del nostro lavoro c’è laconvinzione che le persone sono più importanti della tecnologia e che, grazie a quest’ultima, è possibile aiutare chi è colpito da gravi patologie a riavere fiducia nella vita e una connessione con il mondo.” BrainControl BCI - tramite dei sensori indossabili - interpreta e classifica le onde cerebrali generate dal movimento immaginato, attraverso un software basato sull’IA, dopo aver intercettato l’attività elettrica sulla corteccia cerebrale. Grazie al training, il paziente impara ad usare pensieri “decodificabili” per selezionare la risposta voluta sul dispositivo. BrainControl BCI è un dispositivo medico CE di classe I brevettato in Italia e in attesa di ottenere la stessa certificazione in altri Paesi EU, US, Canada, Giappone e Cina; ha vinto nel 2020 ilBando Horizon per la Ricerca e l’Innovazione dell’Unione Europea. L’utilizzatore di BrainControl BCI è una persona con gravissime disabilità ma con abilità cognitive sufficientemente integre, persone quindi colpite da patologie quali tetraplegia, SLA, sclerosi multipla, distrofie muscolari e anche coloro che hanno subito danni cerebrali di origine ischemica o traumatica. “Il software e il caschetto costituiscono il cuore di BrainControl ma, senza un training personalizzato, i risultati non sarebbero soddisfacenti. – spiega Tommaso Capresi, BrainControl Specialist - Infatti, ogni situazione è differente e le variabili talmente sensibili che richiedono necessariamente una personalizzazione 1to1.” Attualmente BrainControl BCI, oltre ad essere stato adottato da diversi pazienti privati, è in uso presso diverse strutture pubbliche, tra cui l’Ospedale San Jacopo di Pistoia, Asur Marche, Asl Lecce, ASST Melegnano. BrainControl BCI fa parte di una gamma di dispositivi che comprende anche BrainControl Sensory e Avatar: tre diverse soluzioni, compatibili con i differenti gradi di mobilità e interazione del paziente. BrainControl Sensory è pensato per pazienti con movimenti residui volontari di qualsiasi parte del corpo (movimenti oculari, movimenti della mano, delle dita, dello zigomo, ecc.). Grazie a una serie di sensori, quali puntatori oculari, sensori di movimento, emulatori mouse, è possibile sfruttare i movimenti residui del paziente per creare un’interazione con il mondo esterno. BrainControl Avatar è pensato per persone con difficoltà motorie, permette di visitare da remoto istallazioni, musei, spazi espositivi ed eventi in genere. In maniera del tutto indipendente, è possibile comandare un alter ego robotico, regolando audio, video e altezza del campo visivo. David Landi, R&D Manager di Liquidweb afferma che: “Grazie al nostro Avatar l’esperienza sarà immersiva e reale, come se si stesse visitando di persona l’ambiente prescelto.” Inoltre, il monitor e gli altoparlanti di cui è dotato l’avatar consentono di rendersi visibile a distanza, se lo si desidera, dando spazio a una personificazione dell’Avatar che permette alle persone intorno di interagire con esso, stabilendo una comunicazione nuova e vivace fra le persone in loco e la persona connessa. Contatti Sito Web Twitter Facebook Instagram Linkedin Per informazioni email: info@braincontrol.eu telefono: 0577 1916187
- In che modo Data Scientist e Business Analyst possono migliorare la pianificazione strategica ?
La Data Science si occupa di dati ed è molto utile in questi giorni nell'analisi e nell'apprendimento automatico. I metodi di Data Science e Business Intelligence aiutano a scoprire modelli e osservazioni utili e produttivi. EDA esplora i dati e ci aiuta a scoprire aspetti completamente nuovi dei dati. Nel campo degli affari, l'equazione principale è massimizzare i profitti e aumentare l'efficienza del business. La business intelligence si occupa di elaborare attraverso i dati e di trarre utili conoscenze e intelligenze manageriali. I dati e le conclusioni, utilizzati in modo efficiente, possono aumentare molte volte la redditività di un'azienda. La corretta implementazione aiuta a trasformare il piano statico in un sistema non solo efficiente ma anche pronto per il futuro. Questo è il vantaggio dell'utilizzo della scienza dei dati. Il sistema/modello non è solo predisposto, ma è anche predisposto con dati ed esperienze del passato che gli consentono di funzionare in modo efficiente e di adattarsi secondo le esigenze richieste. Perché la scienza dei dati? Sappiamo che la scienza dei dati è una miscela di strumenti, logiche, tecniche e algoritmi di apprendimento automatico che hanno l'obiettivo di decodificare schemi nascosti e arrivare a conclusioni da dati grezzi. La Data Science può essere utilizzata per spiegare cosa sta succedendo elaborando la cronologia dei dati. La scienza dei dati ha trovato impiego in molti aspetti della nostra vita quotidiana, viene utilizzata per prevedere il tempo, nella previsione del mercato azionario, nelle scienze della salute, nella finanza, nella logistica, nella previsione delle vendite e molti altri. L'uso della scienza dei dati e dell'apprendimento automatico migliorerà sicuramente l'implementazione della business intelligence. Ciò porterà a una maggiore efficienza delle imprese ea una migliore pianificazione strategica. L'analisi può essere definita come il processo di modellazione e trasformazione dei dati per trarre conclusioni e prendere decisioni migliori. Spesso è facile raccogliere una grande quantità di dati, ma applicarli per scopi significativi rimane una sfida. In un articolo del 2015 di McKinsey, hanno affermato che i rivenditori che utilizzano Data Analytics su larga scala all'interno dell'organizzazione potrebbero aumentare i propri margini operativi di oltre il 60%. Microsoft Power BI ha ora milioni di utenti, il che spiega che c'è una tendenza crescente all'utilizzo dei dati per sfruttare le decisioni aziendali. Processo decisionale basato sui dati La scienza dei dati consiste in vari metodi e processi che supportano e guidano l'estrazione di informazioni e conoscenze dai dati grezzi. La Data Science, se utilizzata correttamente, ha vaste applicazioni nel mondo degli affari. Un analista aziendale lavorerà con l'amministrazione aziendale e prenderà parte all'EDA, che è un approccio per analizzare i set di dati, riassumerne le caratteristiche principali, lavorare con i dati e perfezionare i dati in modo che possano essere utilizzati in modo produttivo. Con grandi quantità di dati a nostra disposizione, le aziende possono prendere migliori decisioni commerciali, finanziarie e di marketing. Se un'azienda dispone di dati precedenti su quale prodotto ha venduto bene in quale momento o in quali località, può lavorare in modo da aumentare le vendite. I Big Data aiutano molto i punti vendita al dettaglio e i venditori di beni di consumo in rapida evoluzione. Con dati corretti, possono essere prese varie decisioni importanti che possono migliorare i profitti. Il processo decisionale basato sui dati ha molte applicazioni. Ad esempio, in Finanza, potrebbe essere trovare il modo più conveniente per utilizzare i servizi cloud o assumere nuovo personale. Oppure potrebbe essere il modo più economico per promuovere un nuovo prodotto. Nel caso del marketing, con un processo decisionale basato sui dati, possiamo capire quali media promozionali hanno la migliore portata e ritorno sull'investimento (ROI). In caso di crescita complessiva dell'azienda, i dati possono essere utilizzati per monitorare la fedeltà dei clienti. I dati passati sui clienti possono essere portati e analizzati per scoprire i dati demografici dei clienti più fedeli. Scienza dei dati in azione La scienza dei dati viene applicata ampiamente in tutte le aree funzionali delle aziende. Le società finanziarie lo utilizzano per il punteggio del credito, il trading, il rilevamento delle frodi e la gestione del database. Grandi aziende come Amazon e Walmart utilizzano la scienza dei dati in vari campi: dal marketing alla gestione della catena di approvvigionamento, dalla previsione delle richieste alle risorse umane. Molte aziende sono diventate società di data mining dedicate che si occupano solo di data science. Facciamo un esempio. Supponiamo che sia un periodo festivo in India, il periodo festivo in India mostra una tendenza molto alta dello shopping di moda nei clienti indiani. Diciamo ora che Myntra vuole aumentare le sue vendite in questa stagione. Quindi prenderanno i dati dei precedenti, diciamo 5 anni, e controlleranno quali prodotti o quale tipo di prodotti sono stati venduti di più e li sovraccaricheranno in modo che non si esauriscano, aumentando così le loro vendite. Quindi, qual è la tabella di marcia per analizzare grandi quantità di dati? Possiamo isolare 6 passaggi. Raccolta dati Archivio dati Pulizia dei dati Analisi dei dati Visualizzazione Il processo decisionale Raccolta dati, per le aziende passerà le vendite, i dati dei clienti passati, il database di prodotti o servizi, il rendimento di un particolare prodotto o servizio e simili. Data Storage terrà traccia di tutti i dati, le grandi aziende lo fanno continuamente e per qualsiasi azienda emergente, qualsiasi azienda di data mining può farlo per loro. La pulizia dei dati comprenderebbe la rimozione di dati e voci errati che causerebbero problemi negli algoritmi di apprendimento automatico. Sono disponibili vari metodi e tecniche di pulizia dei dati. Le parti più importanti, l'analisi e la visualizzazione dei dati, vengono utilizzate per decodificare i modelli nei dati e trovare elementi conclusivi. I passaggi finali sarebbero raccogliere conclusioni rilevanti dai dati e arrivare a una decisione. L'obiettivo di utilizzare decisioni basate sui dati nel Business deve massimizzare i profitti e migliorare l'efficienza del business. Come viene implementato nel settore I dati sono presenti ovunque, i team di dati e analisi delle aziende raccolgono dati da varie fonti. Potrebbe essere Web Analytics, database di applicazioni, moduli di feedback dei clienti, piattaforme di BI e molti altri. Ad esempio, ogni volta che valutiamo un acquisto Amazon e forniamo una recensione, generiamo 2 tipi di dati: uno è la valutazione che è un dato categorico e il testo della recensione che aiuterà nell'analisi del testo, nell'analisi del sentimento e in altre attività di PNL. Allo stesso modo, supponiamo di utilizzare un servizio di consegna di cibo come Zomato, stiamo generando una grande quantità di dati. Ciò include i dati sulla posizione, il prezzo, i nostri interessi alimentari, le abitudini di pagamento (carta, Netbanking, contrassegno, ecc.). Tutti questi dati sono estremamente vantaggiosi per le aziende. Con tutti i dati che le aziende possiedono, si tratta di un'implementazione efficace. Un esempio di vita reale sarebbe come Walmart fa scorta prima di qualsiasi probabile calamità naturale. Prima dell'uragano Frances nel 2004, i dirigenti di Walmart volevano scoprire quali tipi di articoli avrebbero dovuto tenere alla rinfusa. I loro team di dati hanno esaminato i dati passati degli acquisti per scoprire che tipo di articoli avrebbero venduto di più. Si è scoperto che le crostate alla fragola e la birra sono i prodotti alimentari più acquistati negli articoli sich. Dopo i temporali, spesso c'è la possibilità di interruzioni di corrente e disturbi alla linea del gas per lunghi periodi, le crostate alla fragola sono molto popolari in quanto non hanno bisogno di riscaldamento e durano a lungo. E birra solo per rilassarsi. Walmart ha reso felici i floridiani mantenendo un'ampia scorta di pop-tarts e birra e loro stessi hanno realizzato buoni profitti. UPS è una delle più grandi società di consegna pacchi al mondo. UPS sfrutta anche i dati per ottimizzare il trasporto dei pacchi. I loro strumenti di pianificazione della rete (NPT) utilizzano l'apprendimento automatico per risolvere le sfide logistiche e di trasporto, come il modo in cui i pacchi devono essere instradati, pianificati e quando devono essere consegnati. L'IA suggerisce anche i percorsi da sola. Secondo quanto riferito, la piattaforma ha risparmiato milioni di dollari per UPS. Un buon EDA aiuta molto Dopo che i dati sono stati elaborati e perfezionati, è possibile eseguire l'EDA su tali dati. Viene utilizzato per eseguire indagini sui dati, trovare schemi, scoprire anomalie, utilizzare le statistiche per arrivare a conclusioni. I miglioramenti nel calcolo hanno portato a sviluppi nell'EDA. Display a risoluzione migliore, interfacce utente sofisticate, display 4K hanno reso EDA un'esperienza più piacevole. Sono finiti i giorni in cui dovevi tracciare un grafico a barre su carta millimetrata. Ora puoi semplicemente condividere il dashboard di Power BI con il team. Grafici, grafici e dati visivi forniscono preziose conclusioni su come procedere. I dati abbondanti disponibili in questi giorni possono essere applicati e scoperte e approfondimenti possono essere ottenuti dai dati altamente dettagliati. EDA è molto prezioso dal punto di vista della scienza dei dati, per assicurarsi che i risultati che vengono prodotti siano validi e applicabili ai contesti aziendali desiderati. L'EDA consente la valutazione sistematica del contenuto di un campo dati e la sua interazione con altri campi dati, che è spesso la metrica chiave che rappresenta il comportamento o i dati che l'azienda vuole analizzare o prevedere (es. età del cliente, spesa del cliente, vendita di un particolare prodotto in una determinata area, ecc.). Questi metodi aiutano a identificare potenziali cause di comportamento, identificare punti dati potenzialmente problematici o spuri e sviluppare ipotesi da testare che modelleranno la loro analisi e la strategia di sviluppo del modello. Attraverso i metodi EDA, le ipotesi vengono convalidate e vengono identificati i modelli, il che aiuta a comprendere il problema e la selezione del modello. Ciò garantisce un'analisi di alta qualità e convalida che i dati sono stati generati nel modo previsto. Migliorare la pianificazione strategica nelle organizzazioni Il successo del data mining e del lavoro con i dati porterà a un'EDA efficiente, che fornirà migliori strategie di business alle aziende, aiutando nella gestione strategica, nel processo decisionale efficiente, nella gestione della catena di fornitura e quindi darà all'azienda un vantaggio competitivo rispetto alle altre. Ciò si rifletterà nella performance netta dell'economia in termini di profitti. La pianificazione strategica di successo nelle organizzazioni mira al futuro desiderato, agli obiettivi o al raggiungimento dell'obiettivo desiderato. Si tratta di dare uno sguardo al quadro più ampio e ottimizzare il corso delle azioni. Armati di dati, numeri, statistiche, previsioni e altri approfondimenti, i preparativi vengono effettuati dall'aspetto della Data Science. Questo dà senza dubbio un ulteriore vantaggio. Diciamo ad esempio, in un'azienda se sono previsti tutti i parametri del mercato e le vendite dei suoi prodotti, sono in grado di aggregare i loro metodi in un unico piano aziendale centralizzato, struttura organizzativa e budget predefinito. Tutto questo si conclude nella gestione efficiente dell'azienda. Grazie mille per la lettura, condividi l'articolo al tuo collega
- Algoritmo Support Vector Machine (SVM) Spiegazione - Algoritmo di Classificazione Machine Learning
Dopo aver parlato dei dataset per i problemi di IA e di come i dati contenuti nei dataset siano oro colato per i data scientist, in questo post proverò quindi a presentare uno degli algoritmi più noti e diffusi di apprendimento automatico utilizzato per risolvere i problema di classificazione e regressione: il SVM (Support Vector Machine). Spiegazione Algoritmo Support Vector Machine (SVM) Definizione SVM “Le macchine a vettori di supporto utilizzano i dati etichettati per definire un iperpiano con cui suddividere e classificare gli elementi presenti nel dataset.” oppure come proposto su wikipedia "Le macchine a vettori di supporto (SVM, dall'inglese support-vector machines) sono dei modelli di apprendimento supervisionato associati ad algoritmi di apprendimento per la classificazione. Dato un insieme di esempi per l'addestramento, ognuno dei quali etichettato con la classe di appartenenza fra le due possibili classi, un algoritmo di addestramento per le SVM costruisce un modello che assegna i nuovi esempi a una delle due classi, ottenendo quindi un classificatore lineare binario non probabilistico. Un modello SVM è una rappresentazione degli esempi come punti nello spazio, mappati in modo tale che gli esempi appartenenti alle due diverse categorie siano chiaramente separati da uno spazio il più possibile ampio. I nuovi esempi sono quindi mappati nello stesso spazio e la predizione della categoria alla quale appartengono viene fatta sulla base del lato nel quale ricade." Che vuol dire? Per spiegarvi meglio la definizione precedente voglio valutare il problema di classificazione binaria (ovvero fra due classi). Ancora più nello specifico, consideriamo che siano solo 2 le features utilizzate per classificare le istanze del dataset. È quindi possibile rappresentare le istanze in un spazio cartesiano 2D. L’algoritmo traccerà una retta (nel caso lineare) per suddividere le istanze delle due classi in base alla classe a cui appartengono. Questa retta servirà quindi per classificare le istanze non etichettate. Nella Figura sopra sono riportate le istanze del dataset suddivise in base alle features scelte per la classificazione x1 e x2. SVM definisce quindi una linea che suddivida equamente le istanze delle due classi. Nuovi elementi non etichettati saranno quindi classificati nella seguente maniera: se si troveranno al di sopra della linea rossa saranno classificati appartenenti alla classe blue; se si troveranno al di sotto della linea rossa saranno classificati appartenenti alla classe verde. Esistono vari kernel: noi abbiamo visto quello lineare, che il più semplice, ma sono disponibili per l’uso anche il kernel polinominale, quello esponenziale oppure è possibile crearne uno personalizzato. Cambiando kernel sarà quindi possibile utilizzare altre funzioni matematiche più complesse (come iperboli e parabole) per suddividere le istanze del dataset. È importante notare che non sempre è possibile suddividere tutte le istanze del dataset nella maniera corretta come nel primo esempio presentato. In questa seconda Figura viene mostrato come l’utilizzo di un kernel lineare non permetta di risolvere il problema. Probabilmente utilizzando un altro kernel si potrebbero ottenere risultati migliori. Non sempre ciò è possibile! Prima di terminare voglio mostrare con una terza Figura l’utilizzo di SVM nel caso in cui vengano utilizzate 3 features per la classificazione. In questo caso anziché tracciare una retta, viene utilizzato un piano. In conclusione, il suddetto algoritmo è molto utilizzato perché efficiente ed efficace (ovvero produce buoni risultati di classificazione) ed esistono varie implementazioni, tra cui vi consiglio la versione presente nella libreria sklearn. Spoiler Nel prossimo post presenterò un caso di studio relativo ad un semplice problema di classificazione, in cui utilizzerò SVM. Sono appassionato di Intelligenza Artificiale e nel 2020 ho ricevuto il Ph.D. in Visione Artificiale presso l'Università degli Studi di Parma. Se vuoi ricevere maggiori informazioni sull'articolo o sui progetti che sto svolgendo visita il mio sito web.
- 8 Modi per Potenziare il tuo E-Commerce con l'Intelligenza Artificiale Usando il Machine Learning
La tecnologia sta avanzando a una velocità vertiginosa. "Intelligenza artificiale", "Realtà aumentata" e "Apprendimento automatico" sono le parole d'ordine del giorno. È sbalorditivo come siano in grado di fare ciò che pensavamo potessimo solo noi esseri mortali. Non solo fanno queste cose, le fanno anche meglio. È sorprendente vedere quanto valore stanno creando per le aziende oggi. Parliamo di come l'apprendimento automatico, un tipo di intelligenza artificiale (AI), ha rivoluzionato il settore dell'e-commerce. In poche parole, l'apprendimento automatico è un metodo che utilizza l'esperienza per migliorare le prestazioni per un periodo di tempo. I computer migliorano e adattano automaticamente i propri processi senza alcuna programmazione mirata da parte dell'uomo. Puoi sempre saperne di più su questo argomento Iscrivendoti al sito e sfruttando tutte le risorse rese gratis e disponibili . Il machine learning sta aiutando le società di sviluppo di e-commerce a portare l'esperienza del cliente a un livello completamente nuovo. Li rende anche più agili. Li aiuta a generare entrate in modi che non avrebbero mai potuto fare in precedenza. Esistono diversi modi in cui il potere dell'apprendimento automatico può liberare il pieno potenziale di un'attività di e-commerce. Sembra che l'e-commerce sia in un costante stato di reinvenzione. Sono cambiate così tante cose nel corso degli anni e l'apprendimento automatico sembra essere un solido punto di svolta. Giusto per mettere le cose in prospettiva, ecco alcune statistiche che gettano luce sullo stato attuale del settore dell'e-commerce e su come l'apprendimento automatico lo sta influenzando: Statista prevede che le entrate derivanti dalle vendite di e -commerce al dettaglio in tutto il mondo ammonteranno a $ 4,88 trilioni di dollari . Mostra che l'e-commerce crescerà al tasso del 20% ogni anno. L'e-commerce mobile sta crescendo a un ritmo ancora più rapido. È stato stimato che entro la fine del 2022 rappresenterebbe oltre il 70% del traffico e-commerce totale . Gartner prevede che entro il 2021 l'AI gestirà oltre l' 80% di tutte le interazioni con i clienti . Entro la fine del 2021, la realtà aumentata genererà oltre 120 miliardi di dollari di entrate. 1 ) Segmentazione dei clienti, personalizzazione dei servizi e campagne Quando un cliente entra in un negozio fisico, un venditore di solito si avvicina al cliente e gli chiede cosa sta cercando. Inoltre, effettua ulteriori indagini per comprendere i gusti e le preferenze del cliente. Inoltre, il venditore osserva anche il comportamento del cliente, il linguaggio del corpo e altri segnali non verbali che lo aiutano a servire meglio il cliente. Quando il cliente ha un dubbio, una domanda o una preoccupazione, il venditore lo affronta immediatamente e incoraggia il cliente a effettuare l'acquisto. In altre parole, il venditore segmenta il cliente e offre un servizio mirato e personalizzato. I siti di e-commerce non hanno questo lusso. I clienti di solito acquistano online per comodità piuttosto che per esperienza. Di solito hanno in mente un prodotto specifico. Se lo trovano facilmente, possono acquistarlo. Una volta trovato il prodotto, qualora avesse dei dubbi in merito, non c'è nessuno a quel punto che possa rispondere immediatamente a quei dubbi e spingere il cliente verso l'acquisto. Pertanto, a differenza dei negozi offline, i negozi online offrono un ambito limitato per fornire un'esperienza cliente ottimizzata in grado di guidare le vendite e aumentare le entrate. Per fornire un'esperienza simile a quella che un cliente avrebbe in negozio, i rivenditori di e-commerce devono raccogliere enormi quantità di dati e dar loro un senso. È qui che l'apprendimento automatico può aiutare. Può aiutare i rivenditori di e-commerce a eseguire campagne mirate in grado di convertire potenziali acquirenti in effettivi. 2 ) Prezzi ottimizzati Gli acquirenti online sono generalmente molto sensibili al prezzo. Se un prodotto costa quanto quello che fa in negozio, i clienti potrebbero sentirsi più a loro agio ad andare in negozio e valutarlo in prima persona prima di acquistarlo. Inoltre, non è raro che gli acquirenti confrontino i prezzi dei prodotti su varie piattaforme di e-commerce per trovare l'offerta migliore. Le attività di e-commerce hanno riscontrato molto successo implementando prezzi dinamici. L'apprendimento automatico può modificare e riadattare i prezzi tenendo conto di vari fattori contemporaneamente. Questi fattori includono i prezzi della concorrenza, la domanda del prodotto, il giorno della settimana, l'ora del giorno, il tipo di cliente, ecc. Ti rendi conto di quanto la possibilità di cambiare un prezzo "Real Time" a livello marketing quanto sia Potente ? Come un commesso che vuole farti uno sconto o alzarti il prezzo ma Virtuale ! 3 ) Protezione dalle frodi I chargeback sono l'incubo di ogni rivenditore di e-commerce. La maggior parte degli acquirenti, soprattutto quelli alle prime armi, ha l'impressione che le aziende di e-commerce non siano abbastanza sicure. Le società di e-commerce sono vulnerabili ad attività fraudolente. i rivenditori di e-commerce devono stare molto attenti. Non è raro che le aziende, soprattutto quelle online, chiudano i negozi a causa di una cattiva reputazione. Le aziende non devono quindi tagliare gli angoli quando si tratta di rilevare e prevenire qualsiasi tipo di frode. L'apprendimento automatico può eliminare in modo significativo l'ambito delle attività fraudolente. Può elaborare rapidamente risme di dati esaustivi e ripetitivi e può stroncare attività fraudolente sul nascere, rilevando proattivamente eventuali anomalie. 4 ) Risultati di ricerca ottimizzati Non tutti gli acquirenti sono bravi con le parole chiave. Non tutta la ricerca è intelligente. Per effettuare un acquisto, gli acquirenti devono essere in grado di trovare ciò che stanno cercando. Non solo, devono essere in grado di farlo facilmente. Potresti avere tutti i prodotti sotto il sole sul tuo sito di e-commerce. Tuttavia, ciò non ti farà bene se il cliente non riesce a trovare ciò che sta effettivamente cercando, convenientemente. I risultati della ricerca non possono essere basati solo sulle parole chiave. L'apprendimento automatico può rivelare modelli di ricerca, acquisti e preferenze che consentono risultati di ricerca ottimali. I risultati di ricerca basati su questi fattori possono mostrare ai clienti esattamente quello che stanno cercando e suggerire anche articoli simili . 5 ) Raccomandazioni sul prodotto Gli acquirenti possono entrare in un negozio sapendo cosa vogliono. Tuttavia, un eccellente venditore può anticipare le esigenze dei clienti e consigliare i prodotti anche prima che i clienti si rendano conto di averne bisogno. I consigli sui prodotti possono aumentare notevolmente le entrate. Questo diventa difficile da ottenere su una piattaforma online in quanto richiede l'identificazione di modelli di comportamento di vendita e acquisto. Molti rivenditori di e-commerce hanno sfruttato l'apprendimento automatico per creare con successo un motore di raccomandazione del prodotto. Sono in grado di identificare le tendenze nel comportamento di acquisto per suggerire prodotti adatti a un acquirente. McKinsey and Company ha rilevato che il 75% di ciò che i clienti hanno guardato su Netflix si basava sui consigli sui prodotti. Il 35% degli acquisti effettuati su Amazon è dovuto ai consigli sui prodotti. 6 ) Servizio Clienti In questo ambiente aziendale competitivo, i clienti non si aspettano solo un buon prodotto. Valutano anche la qualità dell'assistenza clienti. La maggior parte dei clienti teme di chiamare quei numeri verdi gratuiti, ascoltare infinite opzioni di menu e lottare per connettersi a una persona reale che possa aiutarli. Nessuno attende con impazienza risposte e-mail in ritardo e impersonali ricevute dagli ID dell'assistenza clienti. Per la maggior parte delle organizzazioni, rimanere al passo con le richieste del servizio clienti può essere molto impegnativo. L'automazione dell'assistenza clienti e l'abilitazione del self-service possono aiutare sia il rivenditore che il cliente. L'apprendimento automatico può essere utilizzato in molti modi per aiutare i clienti e migliorare la soddisfazione dei clienti. Un ottimo esempio è l' uso dei chatbot . I chatbot possono identificare e risolvere i problemi conversando con il cliente in modo naturale. Il machine learning può aiutare le aziende a offrire un'assistenza clienti di qualità superiore e personalizzata su larga scala. 7 ) Gestione della domanda e dell'offerta Tutte le aziende ricorrono alla previsione per abbinare domanda e offerta. Per prevedere bene, i rivenditori di e-commerce devono basare le loro decisioni principalmente sui dati, tra le altre cose. Per prendere solide decisioni basate sui dati, le aziende devono elaborare quanti più dati possibile. È anche importante assicurarsi che i dati siano accurati e che vengano elaborati correttamente. L'apprendimento automatico può elaborare quantità esaustive di dati in modo accurato e molto più veloce. L'apprendimento automatico può anche studiare i dati per fornire quante più informazioni possibili. Ciò consente non solo la previsione, ma aiuta anche le aziende online a migliorare i propri prodotti e servizi. 8 ) Marketing omnicanale potenziato dal machine learning Sappiamo già che il marketing omnicanale garantisce una maggiore fidelizzazione dei clienti, un tasso di acquisto più elevato e un maggiore coinvolgimento . Non si può negare cosa può fare per l'e-commerce. Tuttavia, dato che il marketing omnicanale è incentrato sui dati dei clienti, più dati possono solo migliorare il modo in cui funziona per il tuo negozio online. Dato che l'apprendimento automatico funziona in base alla raccolta di dati e al miglioramento degli algoritmi nel tempo man mano che vengono aggiunti più dati, la tua strategia di marketing omnicanale può essere resa più potente solo con questi dati in costante aggiornamento. Ad esempio, immagina di mettere in atto un flusso di lavoro di automazione del marketing omnicanale e di avere i canali selezionati automaticamente in base a come il cliente si è impegnato con loro in passato. O forse un flusso di lavoro che si riordina automaticamente per inviare il messaggio perfetto che risuonerà meglio con il tuo cliente in base a come ha fatto acquisti o navigato di recente. Non solo, i tuoi dati si aggiorneranno automaticamente e apprenderanno in base a come si comporta il tuo cliente nel tempo, più dati compila, meglio diventa. Conclusione L'apprendimento automatico nell'e-commerce è destinato a restare. Come abbiamo discusso, ha alcune potenti applicazioni nell'e-commerce. Sempre più rivenditori di e-commerce stanno abbracciando l'apprendimento automatico e traendo molto valore da esso. Per le aziende che cercano di automatizzare processi manuali noiosi, laboriosi e costosi, l'apprendimento automatico può essere una risorsa enorme. Può fornire ai rivenditori online informazioni significative sui propri clienti. Possono aiutare le aziende online a generare più clic, convertire potenziali clienti in clienti, trattenerli e persino costruire solide relazioni con i clienti. Grazie mille per la lettura, se questo articolo ti è stato utile condividilo per supportarci
- Le Differenze tra Machine Learning (ML) e Deep Learning (DL) e Intelligenza Artificiale
Questi termini sono spesso usati in modo intercambiabile, ma quali sono le differenze che li rendono ciascuno una tecnologia unica? La tecnologia sta diventando sempre più incorporata nella nostra vita quotidiana di minuto in minuto e, per stare al passo con il ritmo delle aspettative dei consumatori, le aziende fanno sempre più affidamento su algoritmi di apprendimento per rendere le cose più facili. Puoi vedere la sua applicazione nei social media (tramite il riconoscimento degli oggetti nelle foto) o parlando direttamente ai dispositivi (come Alexa o Siri). Queste tecnologie sono comunemente associati con l'intelligenza artificiale , machine learning , apprendimento profondo , e le reti neurali, e mentre lo fanno tutto il gioco un ruolo, questi termini tendono ad essere utilizzati in modo intercambiabile nella conversazione, che porta a una certa confusione intorno alle sfumature tra di loro. Si spera di poter utilizzare questo post del blog per chiarire alcune delle ambiguità qui. Come si relazionano intelligenza artificiale, apprendimento automatico, reti neurali e apprendimento profondo? Forse il modo più semplice per pensare all'intelligenza artificiale, all'apprendimento automatico, alle reti neurali e all'apprendimento profondo è pensarli come bambole russe che nidificano. Ciascuno è essenzialmente un componente del termine precedente. Cioè, l'apprendimento automatico è un sottocampo dell'intelligenza artificiale. Il deep learning è un sottocampo del machine learning e le reti neurali costituiscono la spina dorsale degli algoritmi di deep learning. In effetti, è il numero di strati di nodi, o profondità, di reti neurali che distingue una singola rete neurale da un algoritmo di apprendimento profondo, che deve averne più di tre. Cos'è una rete neurale? Le reti neurali, e più specificamente le reti neurali artificiali (ANN), imitano il cervello umano attraverso una serie di algoritmi. A livello di base, una rete neurale è composta da quattro componenti principali: input, pesi, un bias o soglia e un output. Simile alla regressione lineare , la formula algebrica sarebbe simile a questa: Da lì, appliciamolo a un esempio più tangibile, ad esempio se dovresti ordinare o meno una pizza per cena. Questo sarà il nostro risultato previsto, o y-capello. Supponiamo che ci siano tre fattori principali che influenzeranno la tua decisione: Se risparmierai tempo ordinando (Sì: 1; No: 0) Se perdi peso ordinando una pizza (Sì: 1; No: 0) Se risparmierai denaro (Sì: 1; No: 0) Quindi, supponiamo quanto segue, dandoci i seguenti input: X 1 = 1, dal momento che non stai preparando la cena X2 = 0, poiché stiamo ottenendo TUTTI i condimenti X 3 = 1, poiché stiamo ottenendo solo 2 fette Per semplicità, i nostri input avranno un valore binario di 0 o 1. Questo tecnicamente lo definisce come un perceptron poiché le reti neurali sfruttano principalmente i neuroni sigmoide, che rappresentano valori dall'infinito negativo all'infinito positivo. Questa distinzione è importante poiché la maggior parte dei problemi del mondo reale non sono lineari, quindi abbiamo bisogno di valori che riducano l'influenza che ogni singolo input può avere sul risultato. Tuttavia, riassumere in questo modo ti aiuterà a capire la matematica sottostante in gioco qui. Andando avanti, ora dobbiamo assegnare alcuni pesi per determinare l'importanza. Pesi maggiori rendono il contributo di un singolo input all'output più significativo rispetto ad altri input. W 1 = 5, poiché dai valore al tempo W 2 = 3, poiché apprezzi restare in forma W 3 = 2, visto che hai soldi in banca Infine, assumeremo anche un valore di soglia di 5, che si tradurrebbe in un valore di bias di –5. Poiché abbiamo stabilito tutti i valori rilevanti per la nostra somma, ora possiamo inserirli in questa formula. Utilizzando la seguente funzione di attivazione, possiamo ora calcolare l'output (ovvero la nostra decisione di ordinare la pizza): In sintesi: Y-cappello(il nostro risultato previsto) = Decidi se ordinare o meno la pizza Y-cappello = (1 * 5) + (0 * 3) + (1 * 2) - 5 Y-cappello = 5 + 0 + 2-5 Y-cappello = 2, che è maggiore di zero. Poiché Y-cappello è 2, l' uscita dalla funzione di attivazione sarà 1, il che significa che ci sarà da ordinare la pizza (Cioè, che non fa la pizza amore). Se l'uscita di un singolo nodo è superiore al valore di soglia specificato, quel nodo viene attivato, inviando i dati al livello successivo della rete. In caso contrario, nessun dato viene passato al livello successivo della rete. Ora, immagina che il processo di cui sopra venga ripetuto più volte per una singola decisione poiché le reti neurali tendono ad avere più livelli "nascosti" come parte degli algoritmi di apprendimento profondo. Ogni livello nascosto ha una propria funzione di attivazione, che potenzialmente passa le informazioni dal livello precedente a quello successivo. Una volta generati tutti gli output dagli strati nascosti, vengono utilizzati come input per calcolare l'output finale della rete neurale. Ancora una volta, l'esempio sopra è solo l'esempio più semplice di una rete neurale; la maggior parte degli esempi del mondo reale sono non lineari e molto più complessi. La principale differenza tra la regressione e una rete neurale è l'impatto del cambiamento su un singolo peso. Nella regressione, è possibile modificare un peso senza influire sugli altri input in una funzione. Tuttavia, questo non è il caso delle reti neurali. Poiché l'output di uno strato viene passato allo strato successivo della rete, una singola modifica può avere un effetto a cascata sugli altri neuroni della rete. La differenza tra Reti Neurali e Deep Learning? Sebbene fosse implicito nella spiegazione delle reti neurali, vale la pena sottolinearlo in modo più esplicito. Il "profondo" nell'apprendimento profondo si riferisce alla profondità degli strati in una rete neurale. Una rete neurale composta da più di tre livelli, che includerebbero gli input e l'output, può essere considerata un algoritmo di deep learning. Questo è generalmente rappresentato utilizzando il diagramma seguente: La maggior parte delle reti neurali profonde sono feed-forward, nel senso che fluiscono in una sola direzione dall'input all'output. Tuttavia, puoi anche addestrare il tuo modello tramite backpropagation; ovvero, spostarsi in direzione opposta dall'output all'input. La backpropagation ci consente di calcolare e attribuire l'errore associato a ciascun neurone, permettendoci di regolare e adattare l'algoritmo in modo appropriato. Differenze tra Machine Learning e Deep Learning ? Come spieghiamo nel nostro articolo sull'hub di apprendimento sul deep learning , il deep learning è semplicemente un sottoinsieme del machine learning. Il modo principale in cui differiscono è nel modo in cui ogni algoritmo apprende e nella quantità di dati utilizzati da ciascun tipo di algoritmo. Il deep learning automatizza gran parte del processo di estrazione delle funzionalità, eliminando parte dell'intervento umano manuale richiesto. Consente inoltre l'uso di grandi set di dati, guadagnandosi il titolo di " apprendimento automatico scalabile " in questa conferenza del MIT. Questa capacità sarà particolarmente interessante quando inizieremo a esplorare maggiormente l'uso di dati non strutturati, in particolare perché si stima che l'80-90% dei dati di un'organizzazione non sia strutturato . L'apprendimento automatico classico o "non profondo" dipende maggiormente dall'intervento umano per l'apprendimento. Gli esperti umani determinano la gerarchia delle funzionalità per comprendere le differenze tra gli input di dati, che di solito richiedono dati più strutturati per l'apprendimento. Ad esempio, supponiamo che ti mostri una serie di immagini di diversi tipi di fast food, "pizza", "hamburger" o "taco". L'esperto umano di queste immagini determinerebbe le caratteristiche che distinguono ogni immagine come il tipo specifico di fast food. Ad esempio, il pane di ogni tipo di cibo potrebbe essere una caratteristica distintiva in ogni immagine. In alternativa, potresti semplicemente utilizzare etichette, come "pizza", "hamburger" o "taco", per semplificare il processo di apprendimento attraverso l'apprendimento supervisionato. L'apprendimento automatico "profondo" può sfruttare set di dati etichettati, noti anche come apprendimento supervisionato, per informare il suo algoritmo, ma non richiede necessariamente un set di dati etichettato. Può importare dati non strutturati nella sua forma grezza (ad esempio testo, immagini) e può determinare automaticamente l'insieme di caratteristiche che distinguono "pizza", "hamburger" e "taco" l'una dall'altra. Osservando i modelli nei dati, un modello di apprendimento profondo può raggruppare gli input in modo appropriato. Prendendo lo stesso esempio di prima, potremmo raggruppare le immagini di pizze, hamburger e tacos nelle rispettive categorie in base alle somiglianze o alle differenze identificate nelle immagini. Detto questo, un modello di apprendimento profondo richiederebbe più punti dati per migliorarne l'accuratezza, mentre un modello di apprendimento automatico si basa su meno dati data la struttura dei dati sottostante. Il deep learning viene utilizzato principalmente per casi d'uso più complessi, come assistenti virtuali o rilevamento di frodi. Cos'è l'intelligenza artificiale AI o Artificial Intelligence AI ? Infine, l'intelligenza artificiale è il termine più ampio utilizzato per classificare le macchine che imitano l'intelligenza umana. Viene utilizzato per prevedere, automatizzare e ottimizzare le attività che gli esseri umani hanno svolto storicamente, come il riconoscimento vocale e facciale, il processo decisionale e la traduzione. Esistono tre categorie principali di AI: Artificial Narrow Intelligence (ANI) Intelligenza generale artificiale (AGI) Super Intelligenza Artificiale (ASI) L'ANI è considerata AI "debole", mentre gli altri due tipi sono classificati come AI "forti". L'intelligenza artificiale debole è definita dalla sua capacità di completare un'attività molto specifica, come vincere una partita a scacchi o identificare un individuo specifico in una serie di foto. Man mano che ci spostiamo verso forme più forti di IA, come AGI e ASI, l'incorporazione di più comportamenti umani diventa più prominente, come la capacità di interpretare il tono e le emozioni. Chatbot e assistenti virtuali, come Siri, stanno grattando la superficie di questo, ma sono ancora esempi di ANI. L'intelligenza artificiale forte è definita dalla sua capacità rispetto agli esseri umani. L'Intelligenza Generale Artificiale (AGI) si esibirebbe alla pari di un altro essere umano mentre la Super Intelligenza Artificiale (ASI), nota anche come iperintelligenza, supererebbe l'intelligenza e l'abilità di un essere umano. Nessuna delle due forme di IA forte esiste ancora, ma la ricerca in corso in questo campo continua. Poiché quest'area dell'IA è ancora in rapida evoluzione, il miglior esempio che posso offrire su come potrebbe apparire è il personaggio Dolores nello show della HBO Westworld . Grazie mille per la lettura, condividi e commenta l'articolo.
- Una Guida Semplice e Completa per passare da Excel a Python Usando le Librerie Pandas e Numpy
So che l'idea di imparare cose che puoi già fare in Excel / VBA in un ambiente completamente nuovo come Python non sembra così eccitante, tuttavia, i vantaggi offerti da Python, le molte librerie disponibili e l'alta richiesta delle aziende di data scientist rende ancora più interessante questo " switch ". Per questo motivo, ho pensato a un utile e semplice guida che avrei voluto avere quando sono passato da Excel a Python. In questo articolo, utilizzeremo le librerie Panda e Numpy di Python per sostituire molti Excel funzioni che probabilmente hai usato in passato. Sommario Importare i dati Somma, Media, Max, Min, Count Sostituiamo l' IF Pulizia dei dati di base Sostituiamo i grafici di Excel con Matplotlib di Python Prima di iniziare : Se non sai perchè utilizzeremo python, clicca qui Se non hai ancora installato Python, clicca qui Se non sai come scaricare e gestire le librerie, clicca qui Se non sai cosa sia un Dataset, clicca qui Se non sai quali sono le migliori librerie per l'I.A. , clicca qui IMPORTARE I DATI In questa guida, utilizzeremo un file Excel con formato .csv, ma non preoccuparti, un vantaggio di Python è la possibilità di poter leggere quasi ogni tipo di file, txt, json, xml, html e i vari formati excel. Ti lascio il link per vedere come importare i diversi tipi di file. Nel caso in cui vuoi solo esercitarti e non sai che dataset usare ti lascio questo link per vedere dove trovare dataset gratis a scaricare. Se vuoi seguire passo passo l'intero articolo ti lascio il file .csv che utilizzeremo in questa guida. Per iniziare con questa guida, importiamo le librerie Pandas, Numpy e Matplotlib. #importiamo le librerie import matplotlib.pyplot as plt import pandas as pd import numpy as np Con questo, possiamo dare una prima occhiata ai dati. Per farlo, usiamo pd.read_csv (). Assicurati che il CSV e il tuo script Python si trovino nella stessa cartella. dataset = pd.read_csv("EsempioPython.csv") print(dataset) Una volta letto questo file CSV, gli diamo un nome. In questo caso, l'ho chiamato dataset. Come consuetudine si usa df che sta per dataframe ed è il nome tipico dato dopo aver letto un file CSV. Dopo eseguendo il codice sottostante, otteniamo il seguente output. Nel nostro caso stiamo usando jupyter notebook per scrivere il codice quindi se stai utilizzando il terminale o altri editor sarà stampato in modo diverso. Sembra simile a un foglio di calcolo Excel, ma in questo formato sarà più facile lavorare i dati i dati. Ora ti mostrerò in Python come eseguire alcune funzioni comuni che probabilmente utilizzato in Excel. SOMMA, MEDIA, MAX, MIN e COUNT Le popolari funzioni di Excel possono essere facilmente sostituite con i metodi Pandas. Prima di farti vedere le singole funzioni, ci tengo a dirti che Se vogliamo ottenere la maggior parte delle funzioni elencate sopra, utilizziamo il metodo .describe(). Diamo un'occhiata. print(dataset.describe()) Output: Come puoi vedere per ogni colonna ne verranno calcolate le principali operazioni statistiche di base. Ora procediamo nel vedere come sommare due o più colonne. Per specificare su quali colonne operare utilizzeremo le parentisi subito dopo la nostra variabile contenente tutti i dati, con all'interno i nomi delle colonne che vuoi selezionare. Ne vediamo subito un esempio. #Vogliamo calcolare le vendite totali dei negozi vendite_totali = dataset["Quantity"].sum() print(vendite_totali) Output: Quindi, se vogliamo selezionare una colonna specifica, selezioniamo prima con parentesi quadre ["colonna"] e poi usa il metodo di cui abbiamo bisogno (.sum (), .mean (), .count (), ecc.). Ad esempio, calcoliamo la media, il max e il min delle quantità vendute dei negozi. print("media : " + str( dataset["Quantity"].mean() ) ) print("MAX : " + str( dataset["Quantity"].max() ) ) print("MIN : " + str( dataset["Quantity"].min()) ) Output: media : 780.5861655834982 MAX : 67875.0 MIN : 1.0 Come puoi vedere è veramente semplice, quasi più di Excel dopo che ci avrai preso mano. Nel caso in cui desideriamo contare il numero di dati specifici all'interno di una colonna, possiamo usare il .value_counts () metodo. Ora vediamo un esempio dove contiamo quale tipi di metodi sono stati usati negli ordini. print(dataset["Order_method_type"].value_counts()) Output: Web 69181 Sales visit 7168 Telephone 5814 E-mail 3092 Fax 1664 Mail 1024 Special 532 Name: Order_method_type, dtype: int64 Come puoi vedere anche la gestione delle variabili di testo non è minimamente un problema per Python. Ora facciamo un salto di livello e vediamo come implementare l' IF di Excel con numpy, utilizzando sempre semplici funzioni. SOSTITUIAMO L' IF Possiamo facilmente sostituire la funzione IF di Excel utilizzando Numpy. Immaginiamo di voler sapere quali vendite sono superiori ad una quantità di 200 pezzi e creare quindi un nuovo attributo per ogni riga la dove la vendita risulta maggiore o minore di questa quantità. Possiamo farlo facilmente con quanto segue codice. dataset["Vendite_all_ingrosso"] = np.where(dataset['Quantity'] > 500, 'vendita ad un negozio', 'vendita per privato') print("dataset") Output: Come puoi vedere np.where () necessita di 3 argomenti: la condizione, il valore se la condizione è Vera e il valore se la condizione è Falsa. Supponiamo ora di avere una condizione più complessa, la quale richiede di classificare nello specifico a che tipo di struttura è stato l'acquisto basandosi sulle quantità. In questo case, abbiamo più di 2 valori, quindi usiamo np.select () necessita di argomenti: un elenco di condizioni un elenco di valori Un elenco in Python è rappresentato dalle parentesi quadre []. Vediamo come si fa in modo pratico. condizioni = [(dataset['Quantity']>=900), (dataset['Quantity']>=800)&(dataset['Quantity']<900), (dataset['Quantity']>=700)&(dataset['Quantity']<800), (dataset['Quantity']>=600)&(dataset['Quantity']<700), (dataset['Quantity']>=500)&(dataset['Quantity']<600), (dataset['Quantity']<500) ] valori= ['Negozio vendita ingrosso', 'Centro commerciale', 'Catena di negozi', 'Negozio Grande', 'Negozio medio-piccolo', 'Ptivato-Retailer'] dataset["Acquirente"] = np.select(condizioni, valori) print("dataset") Output: Come puoi vedere manipolare colonne o righe con Python non è molto difficile, ma andiamo avanti e vediamo quali altre funzioni possiamo replicare da Excel. Immaginiamo di voler le vendite di prodotti solo di uno specifico Paese. Per farlo, in primo luogo, scrivi la condizione dataset ["Retailer_country"] == "Italy" e poi selezioniamo quella condizione all'interno del frame dataset utilizzando parentesi quadre [] dataset_italia = dataset[dataset["Retailer_country"]=="Italy"] dataset_italia Output: Abbiamo selezionato solo le vendite avvenute in italia e le abbiamo inserite dentro un nuovo dataframe dataset_italia . Adesso possiamo eseguire qualsiasi calcolo che abbiamo visto prima "Sum, Average, Max, Min, Count" . Se abbiamo due o più condizioni, il codice sarà simile a quello sopra, ma con alcuni cambiamenti. Immaginiamo di voler creare un ulteriore dataframe contenente solo le vendite fatte in Spagna nel 2014. dataset_spagna_2014 = dataset[(dataset["Retailer_country"]=="Spain") & (dataset["Year"]==2014)] dataset_spagna_2014 Output: Poiché ci sono 2 condizioni, potremmo usare & | che rappresenta e / o rispettivamente. Tieni a mente che ogni condizione dovrebbe essere tra parentesi. PULIZIA DAI DI BASE Vedremo alcuni metodi utilizzati per la pulizia dei dati. Continueremo a utilizzare il frame df_excel che abbiamo definito in precedenza. STANDARDIZZAZIONE DEL TESTO Potrebbe capitare, soprattutto se si opera con dati correlati a variabili non numeriche, di dover standardizzare il testo in modo da poterlo successivamente convertire in una variabile categorica numerica. Cambia il faromato del testo con .str.lower, .str.upper o .str.title Per accedere alle stringhe contenute in una colonna, usiamo .str possiamo quindi cambiare maiuscole e minuscole di testo con quanto segue . dataset["Product"].str.title() dataset["Product"].str.upper() dataset["Product"].str.lower() Output: Per sovrascrivere la colonna ti basterà assegnare il comando precedente sulla colonna. Questo è il codice. dataset['Product'] = dataset['Product'].str.lower() RIMOZIONE VALORI NULLI Ora vediamo come eliminare i valori nulli presenti nel dataset la sintassi della funzione dropna () è: dropna(self, axis=0, how="any", thresh=None, subset=None, inplace=False) axis : i valori possibili sono {0 o "indice", 1 o "colonne"}, valore predefinito 0. Se 0, rilascia le righe con valori nulli. Se 1, rilascia le colonne con valori mancanti. how : i valori possibili sono {'any', 'all'}, il valore predefinito 'any'. Se "any", rilascia la riga / colonna se uno dei valori è nullo. Se "all", rilascia la riga / colonna se mancano tutti i valori. thresh : un valore int per specificare la soglia per l'operazione di eliminazione. subset : specifica le righe / colonne in cui cercare valori nulli. inplace : un valore booleano. Se True, il DataFrame di origine viene modificato e viene restituito None. Per sovrascrivere il Dataset, senza valori nulli, ci basterà utilizzare questa riga di codice. SOSTITUIAMO I GRAFICI DI EXCEL CON MATPLOTLIB DI PYTHON Questa parte dell'articolo ti introdurrà alla rappresentazione grafica in Python con Matplotlib, che è probabilmente la libreria di rappresentazione grafica e di visualizzazione dei dati più popolare per Python. Installazione Il modo più semplice per installare matplotlib è usare pip. Digita il seguente comando nel terminale: pip install matplotlib #python2 pip install matplotlib #python3 OPPURE, puoi scaricarlo da qui e installarlo manualmente. Per iniziare (tracciamo una linea) Il codice sembra autoesplicativo. Sono stati seguiti i seguenti passaggi: Definisci i valori dell'asse x e corrispondenti dell'asse y come Liste. Stampali usando la funzione .plot () . Assegna un nome all'asse x e all'asse y usando le funzioni .xlabel () e .ylabel () . Dai un titolo alla tua trama usando la funzione .title () . Infine, per visualizzare il grafico, utilizziamo la funzione .show () . Tracciare due o più linee sullo stesso grafico Qui, tracciamo due linee sullo stesso grafico. Li differenziamo dando loro un nome ( etichetta ) che viene passato come argomento della funzione .plot (). La piccola casella rettangolare che fornisce informazioni sul tipo di linea e sul suo colore è chiamata legenda. Possiamo aggiungere una legenda al nostro grafico usando la funzione .legend () . Customizzazione dei grafici Qui, discutiamo alcune personalizzazioni elementari applicabili su quasi tutti i grafici. Come puoi vedere, abbiamo effettuato diverse personalizzazioni come : impostazione della larghezza della linea, dello stile della linea, del colore della linea. impostazione del pennarello, colore del viso del pennarello, dimensione del pennarello. sovrascrivendo l'intervallo degli assi x e y. Se l'override non viene eseguito, il modulo pyplot utilizza la funzione di scala automatica per impostare l'intervallo e la scala dell'asse. Grafico a barre Qui, usiamo la funzione plt.bar () per tracciare un grafico a barre. Le coordinate x del lato sinistro delle barre vengono trasmesse insieme alle altezze delle barre. puoi anche dare un nome alle coordinate dell'asse x definendo tick_labels Istogramma Qui, usiamo la funzione plt.hist () per tracciare un istogramma. le frequenze vengono passate come elenco delle età . L'intervallo può essere impostato definendo una tupla contenente il valore minimo e massimo. Il passaggio successivo consiste nel " raggruppare " l'intervallo di valori, ovvero dividere l'intero intervallo di valori in una serie di intervalli, quindi contare quanti valori rientrano in ciascun intervallo. Qui abbiamo definito bin = 10. Quindi, ci sono un totale di 100/10 = 10 intervalli. Trama a dispersione Qui, usiamo la funzione plt.scatter () per tracciare un grafico a dispersione. Come una linea, qui definiamo anche i valori dell'asse xe corrispondenti. L' argomento marker viene utilizzato per impostare il carattere da utilizzare come marker. La sua dimensione può essere definita utilizzando il parametro s . Grafico a torta Qui, tracciamo un grafico a torta usando il metodo plt.pie () . Prima di tutto, definiamo le etichette utilizzando un elenco chiamato attività . Quindi, una parte di ciascuna etichetta può essere definita utilizzando un altro elenco chiamato slice . Il colore per ciascuna etichetta viene definito utilizzando un elenco chiamato colori . shadow = True mostrerà un'ombra sotto ogni etichetta nel grafico a torta. startangle ruota l'inizio del grafico a torta di determinati gradi in senso antiorario dall'asse x. explode viene utilizzato per impostare la frazione di raggio con cui compensiamo ogni cuneo. autopct viene utilizzato per formattare il valore di ciascuna etichetta. Qui, l'abbiamo impostato per mostrare il valore percentuale solo fino a 1 cifra decimale. Tracciare curve di una data equazione Per impostare i valori dell'asse x, usiamo il metodo np.arange () in cui i primi due argomenti sono per l'intervallo e il terzo per l'incremento graduale. Il risultato è un array numpy. Per ottenere i valori dell'asse y corrispondenti, usiamo semplicemente il metodo np.sin () predefinito sull'array numpy. Infine, tracciamo i punti passando gli array xey alla funzione plt.plot () . Quindi, in questa parte, abbiamo discusso i vari tipi di grafici che possiamo creare in matplotlib. Come hai potuto vedere python offre le stesse se non più funzionalità di excel, spero che questa quida ti possa essere d'aiuto nella transizione. Per qualsiasi tipo di domanda o dubbio non esitare a lasciare un commento. Grazie mille per la lettura, condivi l'articolo !
- Utilizzare il Machine Learning per Prevedere Le Vendite e Anticipare la Domanda dei tuoi Clienti IA
Quante persone dovrebbero essere assunte? Quanto stock dovrebbe essere ordinato? Quante entrate ci si può aspettare ad agosto? Tutte queste domande mostrano quanto sia centrale la previsione delle vendite per la pianificazione aziendale. Senza una corretta previsione delle vendite, molte decisioni aziendali si basano su stime o istinti inaffidabili , il che porta a molte inefficienze e opportunità perse. In questo contesto, una rigorosa previsione delle vendite ha un grande potenziale per generare valore. Questo post del blog descriverà come sfruttare l' apprendimento automatico per prevedere con precisione le vendite e pianificare di conseguenza . Invece di applicare presupposti e un insieme complesso di regole in una cartella di lavoro di Excel ingombrante, i modelli di Machine Learning apprendono modelli dai dati per generare previsioni. In questo modo, se le tendenze sottostanti cambiano, il modello può essere riqualificato e apprendere questi cambiamenti. Inoltre, l'algoritmo di apprendimento statistico può scoprire modelli persi dagli analisti aziendali. L'utilizzo di Machine Learning invece di un modello Excel rende il processo di previsione molto più tracciabile . L'algoritmo di previsione può essere eseguito su un ambiente di Machine Learning cloud o su una macchina virtuale e scrivere previsioni direttamente su un database. Queste previsioni potrebbero quindi essere distribuite agli utenti aziendali tramite dashboard interattivi. In questo modo, c'è un'unica fonte di verità per l'intera azienda. Un algoritmo gestito e gestito centralmente è più sicuro, più adattabile e più efficiente. Cos'è la previsione delle vendite? Una previsione di vendita è una stima delle vendite future. Questa stima può essere basata su valori passati, indicatori economici, stagionalità, previsioni meteorologiche ... Esistono due tipi principali di previsione delle vendite: Previsione basata su regole: nella previsione basata su regole, le previsioni vengono generate utilizzando una serie di regole e ipotesi sviluppate manualmente sulla base di dati passati e tendenze note. Ad esempio, se gli analisti aziendali notano che le vendite sono aumentate costantemente del 5% ogni anno, potrebbero applicare la seguente regola di previsione: Vendite di domani = Vendite dello scorso anno * 1.05. Questo è un esempio semplificativo, la previsione basata su regole potrebbe diventare rapidamente molto complessa, opaca e difficile da controllare. Inoltre, se il tasso di crescita salta improvvisamente dal 5% al 15%, l'utilizzo di questo tipo di regole potrebbe portare a stime fuorvianti e opportunità di business perse. Previsione basata sull' apprendimento automatico : gli algoritmi di apprendimento automatico apprenderebbero le regole che dovrebbero essere progettate manualmente nella previsione basata su regole. Questo viene fatto attraverso un processo chiamato apprendimento supervisionato. L'apprendimento supervisionato è il compito di apprendere la relazione tra output (vendite) e input (vendite passate, indicatore economico, calendario delle festività ecc.) Gli algoritmi di Machine Learning trovano queste relazioni minimizzando l'errore di previsione, ovvero trovando le relazioni e i parametri che massimizzano l'accuratezza della previsione. Come utilizzare l'apprendimento automatico per prevedere le vendite? Nel mondo del machine learning, la previsione delle vendite è un problema di regressione di serie temporali. Una regressione è qualsiasi attività riguardante la stima di una quantità continua (cioè le vendite). Le regressioni di serie temporali sono un caso particolare di regressione, con una dimensione temporale aggiuntiva. Esistono due tipi principali di modelli di regressione delle serie temporali: 1. Modelli regressivi automatici: questi modelli prevedono le vendite future esclusivamente sulla base dei valori delle vendite passate. Questi modelli includono ARIMA, SARIMAX e il livellamento esponenziale. Generano previsioni individuando tendenze e modelli di stagionalità . 2. Modelli multivariati: i modelli multivariati si basano su una varietà di input, comprese le vendite passate, i calendari delle festività o persino gli indicatori economici. Questi modelli includono regressioni lineari, reti neurali, metodi basati su albero decisionale e macchine a vettori di supporto. La scelta del modello dipende in ultima analisi dal problema aziendale in questione, dalla disponibilità dei dati e da un rigoroso processo di test del modello. Case Study: Parkdean Resorts Parkdean Resorts, il più grande operatore di parchi vacanze nel Regno Unito, ha contattato TrueCue per sviluppare un modello che generi previsioni di vendita oraria di cibo e bevande in oltre 180 sedi. Nel settore dell'ospitalità, il personale in eccesso può essere un driver di costo sostanziale e la carenza di personale può avere un impatto significativo sulla soddisfazione del cliente. Una previsione oraria affidabile potrebbe quindi aiutare a combattere questi problemi. Un modello di previsione basato su regole per 180 sedi molto diverse, con una frequenza oraria, non sarebbe mai stato gestibile. Inoltre, i dati sulle vendite cambiano ogni giorno, un modello basato su regole progettato nel 2018 potrebbe non essere valido nel 2019. Per rispondere a questo problema, il nostro team ha sviluppato un modello di previsione multivariata che sfrutta i metodi basati sull'albero decisionale (XGBoost). Questo modello è stato addestrato sui dati di vendita recenti, apprendendo modelli di stagionalità e relazioni di vendita con prenotazioni, vacanze e altre variabili esogene. L'algoritmo è stato eseguito su una macchina virtuale, leggendo e scrivendo su un database SQL. Le previsioni sono state quindi condivise con i gestori della sede utilizzando dashboard interattivi di Power BI per informare le loro decisioni di pianificazione. Quali sono i vantaggi delle previsioni e dei rapporti basati su cloud? Passare da previsioni locali basate su Excel a una soluzione basata su cloud presenta diversi vantaggi chiave: Unica fonte di verità: l'algoritmo di previsione viene eseguito centralmente e scritto nel database. In questo modo, esiste un'unica previsione affidabile per l'intera attività. Processo verificabile e sicuro: qualsiasi guasto o errore è molto più facile da individuare e correggere in una soluzione gestita centralmente. All'interno di un'architettura basata su cloud, è possibile applicare la sicurezza del controllo degli accessi basato sui ruoli (RBAC). In questo modo, gli utenti aziendali avranno accesso solo alle risorse con cui sono autorizzati a interagire (ad es. Sviluppo di modelli, amministrazione dell'ambiente cloud, visualizzazioni di previsioni). Reportistica unificata e interattiva: l' utilizzo di strumenti di reportistica automatizzati come Power BI e Tableau apre un nuovo mondo di possibilità. Utilizzando queste piattaforme, le previsioni possono essere distribuite agli utenti aziendali in dashboard aggiornati automaticamente . Questi report possono includere sia indicatori di alto livello che analisi dettagliate per informare al meglio le decisioni aziendali quotidiane. Quali sono i prerequisiti per la previsione delle vendite di Machine Learning? Proprio come gli esseri umani, gli algoritmi di Machine Learning apprendono dai dati di vendita passati . Di conseguenza, il prerequisito principale per sviluppare modelli ML è la disponibilità dei dati di addestramento. Questi dati possono essere ricavati da sistemi di vendita, database aziendali, file di archivio locali e fonti esterne. Conclusioni Le possibilità delle previsioni di vendita basate sull'apprendimento automatico sono infinite. Sempre più aziende stanno ora realizzando i vantaggi del passaggio dalla previsione basata su regole di Excel all'analisi predittiva unificata. Per sfruttare il progresso tecnico del machine learning e dell'intelligenza artificiale per informare la pianificazione aziendale, parla con uno dei membri del team! Scrivici un messaggio ! Grazie mille per la lettura, commenta l'articolo, facci sapere cosa ne pensi.
- Il Servomeccanismo Mentale, Come e Quali meccanismi segue la nostra mente
Questa Spiegazione è appartenente ad una Serie di Articoli. Prima di iniziare a leggere ti consigliamo di guardale l'articolo precedente : Lo Strumento "mente" Facendo riferimento allo schema dell'articolo precedente, che riporto qui sotto, iniziamo a capire cosa rappresenta e a fare qualche osservazione. Come si può notare non sono cambiate molte cose apparentemente, ma nella sostanza vedremmo che si tratta di definire con questa tipologia grafica un qualcosa di complesso che però è sempre riconducibile alle relazioni delle grandezze che sono presenti in questo schema. Passiamo ora ad analizzare una ad una le grandezze e le relazioni che sono sopra identificate: 1) “x(i)” rappresenta l’ingresso del sistema, il flusso di informazioni che la mente riceve dall’ambiente esterno sia tramite gli organi, ovvero tutto quanto può essere fonte di percezione, quindi immagini, suoni o rumori, parole, odori o profumi e sapori, tutto quello che si può toccare sentire e vedere per quello che riguarda i sensi comuni, sia tramite le attività mentali di percezione normale e paranormale. 2) “h(i)” rappresenta l’uscita del sistema: il comportamento del soggetto e quindi tutti gli atteggiamenti che questo può o meno assumere, è un flusso di informazioni come l’ingresso, è nella sostanza una grandezza omogenea all’ingresso se consideriamo per esempio una relazione di una diade, isolando quindi il sistema che questa esprime, altrimenti si può considerare semplicemente come una sorgente di informazione che quindi comunica con il mondo esterno. 3) “y(i)” rappresenta i concetti percettivo-cognitivi, quindi tutti i concetti che possiamo definire di primo livello derivanti dalle funzioni applicate nella scatola nera espressa come “A(i)” che in sostanza ci permette di indicare tutto quanto accade una volta che si è effettuata una operazione mentale di trasformazione di informazione derivante dal mondo esterno o da cicli ripetitivi di teorizzazioni, astrazioni o impressioni di immagini mentali. 4) “z(i)” rappresenta anche in questo sistema una grandezza di confronto che deriva dalla applicazione delle funzioni espresse nella scatola nera rappresentata da “B(i)” che in sostanza esprime tutte le operazioni di comparazione, astrazione e teorizzazione dei concetti di primo livello trasformandoli in concetti di secondo livello che vengono appunto resi comparabili con la realtà percepita, in sostanza rappresenta quei concetti o quelle immagini mentali che sono il frutto delle applicazioni delle funzioni che intervengono a modificare i concetti di primo livello. 5) “e(i)” rappresenta in questo caso un segnale analogo al segnale errore ma preferisco chiamarlo segnale di simmetria o di armonia attenzionale in quanto è la grandezza che ci permette di esprimere di quanto si scosti il concetto percepito dal segnale di ingresso preso in attenzione o nel caso di cicli chiusi permette di riportare dei concetti di teorizzazione o di secondo livello a dei concetti riconducibili ai concetti di percezione. 6) “N(i)” rappresenta ancora il nodo di confronto fra i concetti di secondo livello e la realtà percepita e identificata nel flusso di informazioni prese in attenzione in un dato momento, ma può anche inibire in parte il flusso di informazioni in ingresso permettendo l’avvio di cicli mentali chiusi che sono alla base delle operazioni di astrazione o teorizzazione complesse e che permettono quegli interventi sull’informazione che ho espresso come trasformazioni entalpiche od entropiche, ovvero altre tipologie di intervento su dei concetti, sono in definitiva le operazioni mentali che rendono possibile l’attività creativa o l’applicazione intellettiva più generale. 7) “A(i)” come sopra accennato rappresenta una scatola nera che esprime le funzioni che si possono applicare alle informazioni percepite trasformandole in concetti, saranno espresse quindi tutte quelle funzioni che ci permettono di far compiere un salto energetico da segnali a informazioni complesse ed esprimibili con il linguaggio, è dunque l’espressione delle operazioni che ci permettono di acquisire la conoscenza delle cose, siano queste frutto di attività percettive o tramite cicli chiusi frutto di teorizzazioni successive e se riferita alle applicazioni cognitive, frutto di “comparametrazioni attenzionali”. 8) “B(i)” come sopra accennato esprime tutte le operazioni di comparazione fra i concetti di primo livello e se si considera un ciclo chiuso, i concetti di secondo livello dando origine a situazioni di trasformazioni energetiche sulle informazioni percepite, fornendo la possibilità di acquisire una conoscenza sulle cose, in altre parole, rappresenta tutte le funzioni derivanti dalla teorizzazione o astrazione che permettono di fornire dei "segnali" comparabili nel nodo di confronto. 9) “C(i)” rappresenta un’altra scatola nera che esprime tutte le funzioni intellettivo-comportamentali, nella sostanza è la parte più importante di tutto il processo che subisce l’informazione su un sistema complesso rappresentato da questo schema, definisce la riconversione da concetti ad espressioni di comunicazione a comportamento, ad atteggiamenti. Possiamo a questo punto tradurre i concetti sopra esposti con l’ausilio del linguaggio matematico in formule che ci permettono ancora una volta di stabilire le relazioni fra le grandezze prese in considerazione, il sistema è del tutto analogo a quello esposto nell’articolo precedente per quanto riguarda il concepimento teorico del funzionamento dei sistemi controreazionati, la differenza sostanziale riguarda l’elasticità dovuta alla conformazione e ai tipi logici delle variabili che sono qui rappresentate, in quanto le grandezze possono essere, come nel caso di quelle rappresentate in ingresso e in uscita dei flussi di informazione, mentre per quanto riguarda le variabili che rappresentano le scatole nere, dobbiamo pensare che abbiano la possibilità di raffigurare dei processi o delle funzioni che appunto variano e non sono quindi delle grandezze fisse, avranno beninteso un loro campo di esistenza che si può esprimere dalla “quantità di funzioni” che possono rappresentare e saranno quindi concepite sotto un aspetto comunque complesso. Non ritengo necessario riprendere la dimostrazione già fatta nel capitolo precedente per proporre delle formule basta pensare che la grandezza “h(i)” è messa in relazione con “y(i)” attraverso questa espressione: “h(i)”=C(i)*y(i). Una prima considerazione che mi sembra opportuno fare in questo momento riguarda l’indice espresso fra le parentesi: ’i’ che rappresenta la relazione esistente fra le variabili rappresentate e l’informazione, ’i’ sta dunque per “informazione” e indica che tutte le grandezze e le funzioni rappresentabili sono "funzioni" dell’informazione intesa come “energia pura” in quanto ogni cosa che noi possiamo percepire, ogni cosa che esiste e che sappiamo esprimere, che conosciamo o che non conosciamo è sempre fonte di informazione, tutto è informazione, è informazione la materia animata quella che noi consideriamo inanimata, è informazione l’energia in tutte le sue forme, sono informazioni le “interconnessioni” tra le cose e anche se queste interconnessioni fossero solo dei “campi di interconnessioni” come stabiliscono le analisi della matematica quantistica, anche questi campi sarebbero informazione; l’informazione è l’unica "cosa" che non interagisce sui sistemi quando questi sono nelle condizioni naturali della loro esistenza e l’esistenza delle cose è soltanto esprimibile con l’informazione, ma vedremmo nell’ultima parte di questo lavoro che cosa significa una possibile comprensione del concetto di informazione. Un’altra affermazione che adesso è utile approfondire, è quella che non si può esprimere attraverso lo schema sopra esposto in quanto si tratta soltanto di capire che essendo tutte le funzioni e le grandezze rappresentate a loro volta funzioni dell’informazione, sono tra loro interagenti ossia non si può guardare lo schema come una entità di rappresentazione rigida ma bisogna sforzare la nostra immaginazione nel tentativo di comprendere che è tutto l’insieme che si modifica in una armonia imposta dalla interazione dell’informazione sulle varie cose rappresentate, non si può pensare ad una variazione dei processi di una scatola nera senza pensare a quali possano essere le variazioni riportate anche nelle altre, in verità, la difficoltà che abbiamo è quella di oltrepassare la classica immagine meccanicistica dei processi di causa-effetto introducendo una nuova concezione degli stessi che rientri in una espressione organicistica dell’universo; io mi rendo conto che a questo punto il ragionamento sia diventato veramente complicato ma d'altronde non poteva che essere così, la rappresentazione schematica della mente non può di sicuro essere riportata con delle semplici affermazioni a dei concetti rigidi, basti pensare a quali potenzialità si possa arrivare con i processi mentali, da quelle più normali come i processi di teorizzazione, di correlazione associazione e dissociazione oppure deduttivi o induttivi, inferenziali, di comparazione o relazionali, comportamentali e tutto quanto faccia parte delle attività comuni, ma bisogna pensare anche alle trasformazioni che si possono instaurare quando si parla di intuizioni meditative, di attività extrasensoriali o paranormali che derivano da una interazione complessa del sistema rappresentato dallo schema con l'informazione, in quanto si può definire una completezza umana per l'appunto nella interazione delle tre entità operative che la compongono: quella fisica che noi sappiamo conoscere molto bene in quanto è quella che più adottiamo per vivere, quella mentale che ci permette di avere una attività che rappresenta le possibilità di interazione con quella spirituale che è strettamente legata alla concezione assolutistica della costituzione energetica dell'informazione; il mondo mentale è dunque quello che si può slegare dal contesto fisico spazio-temporale attraverso la costituzione del pensiero che non conosce confini in quanto proprio derivante dalla interazione dell'informazione con il contesto fisico. Scende da ciò che parlare di interazione fra la costituzione del pensiero e l'informazione in quanto energia, comporta una dualità di concepimento delle attività mentali, dualità che va individuata nel considerare sotto un aspetto di processo tutta la situazione inerente al formarsi dei ragionamenti e dei pensieri siano essi consci o inconsci, razionali o intuitivi, sia per quanto riguarda la forma seriale logico-attenzionale di base della polifonia del processo costitutivo del linguaggio, sia per quanto riguarda la forma parallela immediata costitutiva delle immagini mentali comuni o extrasensoriali o trascendentali e sotto un altro aspetto, ossia quello strutturale, quindi di costituzione fisico-chimica o bio-fisiologica, la situazione inerente alle attività cerebrali, individuando quali siano le parti del cervello preposte alle varie operazioni che costituiscono l'operare mentale. Lo schema di base sopra esposto pertanto risponde a quelle che sono sostanzialmente le esigenze di processo della conformazione del pensiero e sarà estremamente difficile fare delle comparametrazioni con la strutturazione fisica dell'attività cerebrale, mi rendo conto che questo può essere un limite non indifferente per questo lavoro ma tenterò comunque di fare un collegamento di principio per quanto riguarda l'interazione fra la costituzione dei processi mentali e la strutturazione fisica cerebrale che consiste nel dare uno sguardo alla costituzione neurologica del cervello, in sostanza noi la dobbiamo pensare come una strutturazione a reti incrociate di punti nevralgici collegati fra loro tramite le sinapsi ed altri tipi di legami fisici che possiamo individuare come tanti fili conduttori di energia, ci sono inoltre delle zone del cervello che sono predisposte alle varie operazioni che regolano tutta l'attività nervosa del sistema, ma per quanto ci riguarda possiamo far riferimento soltanto al fatto che le informazioni energetiche coinvolgono delle catene neuroniche e che queste catene a loro volta si comportano come dei supporti fisici di trasformazione energetica in un modo simile al trasferimento delle informazioni all’interno di un qualsiasi computer, non ha alcuna importanza quindi conoscere esattamente la strutturazione fisica e chimica del supporto sul quale è stato implementato un sistema operativo, anche perché il livello di analisi che posso condurre non mi porta molto in profondità sotto questo punto di vista, non si tratta di valutare da una posizione biologica o fisiologica la possibilità di strutturazione degli “engrammi” o “tracce mnestche”, o di condurre un’analisi approfondita sui corrispettivi “engrammi” che sono alla base delle attività attenzionali, ma soltanto di individuare al meglio appunto queste attività per riuscire a comprendere il più possibile quella che è la strutturazione costitutiva del pensiero. Nel prossimo Articolo faremo un’analisi approfondita sui corrispettivi “engrammi” Grazie mille per la lettura, commenta l'articolo per qualsiasi domanda.
- Come l' Intelligenza Artificiale è in Grado di Fornire un Sostegno Alle Persone con Disabilità
L'intelligenza artificiale (AI) è lo sviluppo di sistemi informatici in grado di eseguire attività che normalmente richiedono intelligenza umana come la percezione visiva, il riconoscimento vocale, il processo decisionale e la traduzione. Molte persone potrebbero pensare all'IA e considerare un mondo con robot e tecnologia futuristica, ma per chi ha disabilità, la tecnologia AI apre un mondo di accessibilità. L'intelligenza artificiale ha già fatto passi da gigante nel campo della comunicazione, dell'accessibilità e della vita indipendente per le persone con disabilità. Qualcuno che non ha disabilità può considerare il proprio Alexa o Echo come un modo conveniente per cercare una ricetta o riprodurre una canzone, ma per qualcuno con disabilità visiva, è un pezzo di tecnologia che cambia la loro vita. Questo è solo un esempio di come l'intelligenza artificiale stia facendo una grande differenza nella vita di molte persone. Comunicazione crescente La tecnologia AI assistita dalla voce, come quella di Alexa, Echo o smartphone, è uno dei principali progressi nella comunicazione. Per le persone con disabilità visive, questa tecnologia è fondamentale per il modo in cui comunicano con i loro dispositivi intelligenti. Esistono anche sistemi cognitivi che imparano a descrivere le immagini per le persone con disabilità visive. In aggiunta a ciò, la tecnologia di sintesi vocale e di sintesi vocale consente una maggiore comunicazione per coloro che si stanno riprendendo da lesioni cerebrali, persone affette da paralisi cerebrale o persone con altre condizioni croniche. Anche i programmi di sottotitoli per persone con difficoltà di udito vengono perfezionati con algoritmi di intelligenza artificiale. Il potere dell'intelligenza artificiale sta toccando quasi tutti i settori , ma la sua capacità di migliorare l'accessibilità sta aumentando la comunicazione in più di un modo conveniente. Più accessibilità Condizioni genetiche, complicazioni durante il parto e traumi precoci possono portare un individuo che necessita di tecnologie assistive per la maggior parte della sua vita. In altri casi, una persona può acquisire una disabilità - sia che si tratti di incidenti sul posto di lavoro che portano all'amputazione o di un incidente stradale - e queste persone possono sentirsi sopraffatte dal reimparare a navigare nella vita di tutti i giorni. In entrambi i casi, la tecnologia assistita dall'intelligenza artificiale può semplificare la vita quotidiana e consentire a queste persone di vivere in modo più indipendente. L'accessibilità è una preoccupazione senza fine per molte persone nella comunità dei disabili. Un passo verso l'accessibilità include l' annuncio da parte di Microsoft di un'intelligenza artificiale per un programma di accessibilità volto ad aiutare le persone con disabilità con la mobilità, forgiare connessioni umane e navigare sul posto di lavoro. Alcune delle tecnologie assistite dall'intelligenza artificiale per aiutare le persone con disabilità visive sono progettate per riconoscere il testo su segnali e scenari, consentendo loro di essere mobili in modo più indipendente. Le auto a guida autonoma sono un altro aspetto dell'intelligenza artificiale che viene spesso discusso per quanto riguarda le persone con disabilità. La cosa grandiosa della tecnologia AI è quanto tende ad essere inclusiva, aiutando le persone che richiedono sistemazioni a sentirsi più incluse nei progressi tecnologici. I veicoli, come il Concept-I RIDE , sebbene non a guida autonoma, creano una maggiore indipendenza automobilistica per le persone che utilizzano una sedia a rotelle. Le auto a guida autonoma utilizzano l'intelligenza artificiale per aiutare molte persone diverse, comprese quelle con problemi di udito e vista, coloro che usano una sedia a rotelle, persone con difficoltà di apprendimento e così via. Essere in grado di uscire di casa e guidare da soli al negozio è un grande progresso per le persone con disabilità in termini di accessibilità e vita indipendente. Consentire una vita indipendente a casa Molte persone che vivono con una disabilità si affidano ad altri per l'assistenza nel muoversi in casa, cucinare o portare a termine altre attività quotidiane. La tecnologia assistita dall'intelligenza artificiale, combinata con i progressi nell'Internet delle cose, ha aperto nuove possibilità per quanto riguarda l'accessibilità. La tecnologia della casa intelligente consente una vita indipendente con le sue capacità di intelligenza artificiale. Ci sono molti esempi di come l'intelligenza artificiale stia cambiando la vita di molti a casa. Usare la tecnologia vocale per dire alla tua casa di accendere / spegnere le luci, regolare il riscaldamento o l'aria condizionata o spegnere i fornelli sono tutte cose che aiutano a rendere più facile la vita indipendente. Gli hub domestici intelligenti possono persino apprendere la tua routine nel tempo e anticipare le tue esigenze, accendendo luci o altri elettrodomestici secondo necessità. Alcuni sistemi possono regolare il termostato tenendo conto dei dati delle previsioni del tempo. Questi esempi dimostrano come la tecnologia AI nei prodotti per la casa intelligente stia rimuovendo gli ostacoli della vita quotidiana. La tecnologia AI in casa è ottima anche in termini di sicurezza. È possibile configurare una casa intelligente per sapere se una persona cade e può avvisare una persona cara o i servizi di emergenza per aiutare. Queste preoccupazioni per la sicurezza aggiungono un altro elemento al motivo per cui la vita indipendente per le persone con disabilità può essere difficile. Tuttavia, l'intelligenza artificiale consente alle persone di comunicare, accedere alla propria casa e sentirsi al sicuro in modo indipendente. Qual è il prossimo? L'intelligenza artificiale cambierà il campo IT , l'industria ingegneristica, i big data e molti altri campi legati alla tecnologia. Tuttavia, l'intelligenza artificiale cambierà anche il mondo per le persone su base giornaliera. Con l'avanzare dell'IA, diventerà più accessibile alle persone comuni. Gli assistenti AI diventeranno la norma e la tecnologia AI continuerà ad essere più efficiente. In termini di intelligenza artificiale e persone con disabilità, ogni progresso sarà più inclusivo. Farà progressi più grandi nella tecnologia medica e aiuterà più persone a raggiungere l'indipendenza in modi che non avrebbero mai potuto immaginare. Cosa c'è nel futuro dell'IA ? Più tecnologia e più accesso ad essa per le persone con disabilità. La tecnologia AI sta cambiando il modo in cui le persone vivono in un modo o nell'altro. Questi cambiamenti non sono solo convenienti: ci aiutano a comunicare, ad accedere a più cose e a vivere in modo più indipendente. Dal software di riconoscimento del linguaggio, alle auto a guida autonoma, alla tecnologia per la casa intelligente, ai progressi tecnologici all'orizzonte, l'IA aiuta le persone con disabilità ad avere più libertà d'azione nelle loro vite in modo profondo. Grazie mille per la lettura, ci teniamo a ringraziare un nostro Utente per la richiesta di un Articolo dedicato a questa area di applicazione dell'Intelligenza Artificiale Condividi o commenta l'articolo se anche tu vorresti che in Italia venissero rilasciati maggiori fondi per la ricerca e l'applicazione delle nuove tecnologie per chi ha una disabilità !
- MANUTENZIONE PREDITTIVA : L’ aiuto di cui avevamo bisogno nella produzione
Parlare di intelligenza artificiale ormai è all’ordine del giorno ma quella dell’intelligenza artificiale è sempre vista come una disciplina a sé. Si pensa sempre all’AI come una cosa ultra-tecnologica, vicina alla robotica di “Io Robot” e talmente lontana dalla nostra realtà quotidiana che ci sembra difficile inserirla nei contesti semplici in cui ogni giorno operiamo. Eppure, ogni giorno, da quando apriamo gli occhi al mattino a quando impostiamo il timer in tv la sera prima di chiuderli per dormire, entriamo a contatto con strumenti di intelligenza artificiale. Vi è mai capitato di portare l’auto al tagliando e alla fine vi siete ritrovati con una fattura tra le mani dagli importi esorbitanti? Nel momento in cui vi arriva la fattura, l’intervento è stato già fatto e oltre che lamentarvi non potrete far altro che raccomandarvi di cambiare officina la prossima volta. Immaginate il danno su impianti molto più grandi e costosi di un’automobile. Esiste un modo per evitare di affrontare tale pericolo periodicamente: passare dalla manutenzione programmata alla manutenzione on demand, passare quindi alla manutenzione predittiva. La manutenzione predittiva è un tipo di manutenzione preventiva che viene effettuata individuando uno o più parametri che vengono poi misurati ed elaborati utilizzando appropriati modelli matematici allo scopo di individuare il tempo residuo prima del guasto. A tale fine si utilizzano svariate metodologie, come ad esempio la misura delle vibrazioni, la termografia, l'analisi delle correnti assorbite, il rilievo di vibrazioni anomale e tante altre. Una variazione delle misure effettuate rispetto allo stato di normale funzionamento indicherà l'aumentare del degrado e permetterà di prevedere il momento del guasto. Un esempio pratico potrebbe essere quello di installare sensori che, attraverso la trasformata di Fourier, permetterebbero di capire non solo quando le merci in magazzino sono in esaurimento, ma anche quando una puleggia è in usura, così da poterla individuare e cambiare prima che l’usura manometta la sua funzione e vi siano danni notevoli all’intero processo produttivo, con conseguente fermo degli impianti e perdita di produzione. La manutenzione predittiva è certamente una conquista in termini di tempo e costi, oltre che di sicurezza sul posto di lavoro. Si riesce ad agire con la precisione di un laser da remoto. Siamo nell’era dell’Industria 4.0 e il potenziale che ogni azienda si ritrova, manipolando i suoi stessi dati, è enorme. Una delle frasi a cui noi di Diskover siamo più affezionati è “la chiave per far crescere il tuo business è nei tuoi dati” ed è proprio così. Le aziende spesso non comprendono che per velocizzare i propri processi non c’è bisogno di ulteriori dati e fonte esterne: basta la giusta organizzazione e acquisizione dei propri dati. La piattaforma Diskover, ad esempio, permette di acquisire oltre 4.000 dati al secondo, relativi allo stato e alle impostazioni dell’impianto, rilevando dati sui motori, sui nastri o sulle caratteristiche visive del prodotto. Facendo riferimento a un sistema di Edge Computing, i dati vengono prima di tutto prelevati, aggregati e trasmessi su una piattaforma cloud/server dove un sistema di machine learning è in grado di prevedere lo stato di funzionalità dell’impianto nonché l’insorgenza di un’anomalia. Nel primo caso, bisogna essere in grado di garantire un sistema di manutenzione predittiva efficiente dove i tecnici riescono ad intervenire su specifiche parti dell’impianto avendo già tutte le informazioni necessarie sull’intervento da effettuare. Nel secondo caso, invece, bisogna essere in grado di prevedere l’insorgenza di un’anomalia prima che essa si verifichi. La manutenzione predittiva rientra nella branca del Data Science e la figura che si occupa dello studio è il Data Scientist, figura con capacità non solo statistiche e informatiche ma anche e soprattutto capacità distintive per poter inserire i dati nel modello di business, molto richiesta negli ultimi anni. La nostra sfida è portare il data science in tutte le realtà aziendali, migliorando l’efficienza dei processi produttivi e decisionali attraverso soluzioni personalizzate e innovative. Ti sei convertito anche tu al Data Science? Ti aspettiamo per una consulenza! Visita il nostro sito web diskover.it per conoscere alcune delle nostre proposte o visita il nostro profilo Instagram .
- Lo strumento “ mente "
Dopo i due articoli precedenti: Dal processo al “giudizio” ( l’intelligenza artificiale vista da un vecchio cibernetico ) CIBERNETICA : Basi di Logonica ( e di teleologia ) che per molti versi potevano essere considerati forse tediosi o complicati per chi non e‘ abituato a parlare in termini matematici, eccoci giunti dunque ad iniziare tutta una serie di ipotesi sul funzionamento della mente umana. Vista proprio sotto l’ottica di chi, per forza di teorizzazioni e per delle necessità di riparametrazione fra l’operare mentale e il mondo dell’informazione, intesa come energia che è alla base di tutto l’universo delle cose che noi conosciamo e che non conosciamo, ha voluto approfittare delle proprie esperienze per rendere, se possibile, una immagine diversa da quella classicamente proposta dalle discipline scientifiche che si sono occupate dell’operare mentale come la filosofia occidentale, la psicologia, la neurologia e altre ancora. Prendendo in considerazione, con una metodologia di indagine interdisciplinare, la possibilità di collegare strettamente assieme il mondo mentale al resto delle cose in una armonia derivante da sistemi che stanno alla base di tutta l’evoluzione naturale e che sono esprimibili soltanto introducendo, anche in questa metodologia di analisi, un linguaggio di tipo matematico che tenga in considerazione le relazioni fisiche fra le attività logoniche e la razionalità costitutiva del sistema universale e non per questo tenda a riportare nel mondo mentale ciò che non gli appartiene, utilizzando in principio un supporto di categorizzazioni derivanti dal farci la domanda "perché?" e poi costituire il ragionamento sintetizzandolo nella parola scritta, vedere il "come" si possono instaurare determinati meccanismi che sono i propulsori cerebrali del pensiero, degli stati d’animo, delle attività percettive, delle attività cognitive, di quelle associative e dissociative, relazionali o comparative e quant’altro la nostra mente è in grado di farci "sentire", nel tentativo di oltrepassare la soglia dei limiti dell’immaginazione normale, dando la possibilità di concepire quelle tipologie di fenomeni trascendentali che sono alla base delle più profonde esperienze mistiche e costituiscono l’anello di giunzione tra l’operare mentale e i vari aspetti della realtà che ci è data. Nel primo articolo di questa serie, ho accennato al fatto che avrei approfondito lo studio della mente partendo da un punto di vista matematico-logico e non vorrei che adesso qualcuno pensasse che questo porti a ragionamenti freddi e rigidi in quanto la matematica ci serve soltanto come mezzo di indagine raffinato e orientato a rendere più comprensibile l’armonia degli eventi che sono alla base di tutte le operazioni che compie il nostro cervello; essendo comunque uno dei mezzi che si possono utilizzare, cercherò di dimostrare che esistono dei limiti di applicabilità nella traduzione verbale, non si tratta dunque di vedere i rapporti umani, le correlazioni mentali, le categorizzazioni del pensiero costitutivo del ragionamento o correlativo, soltanto sotto la lente della matematica e ridurre tutto quanto in formule, si potrebbe dire questo se parlassimo di macchine evolute dove tutto è artificiale, ma non possiamo sicuramente ridurre un sentimento come l’amicizia alla fattispecie della comunicazione di una periferica parlante di un computer: "vuoi scambiare quattro BIT con me..." o parlare di amore inteso come espressione di questo tipo: "desidero tanto raggiungere il massimo delle potenzialità di colloquio dateci dalle possibilità di interazione delle nostre periferiche…", sarebbe tutto anche fin troppo semplicistico, no! Si tratta invece di fornire una base che sia la più valida e sicura possibile per affrontare lo studio dei processi mentali che si svolgono in ognuno di noi in modi tanto differenti, che ci permettono di essere diversi gli uni dagli altri, rispettando la singolarità sacra di ognuno di poter diversificare ed evolvere nel tempo il nostro pensiero verso mete sempre più affascinanti, di poter fornire a quanti possono apprezzare questo metodo di indagine i mezzi che servono per vivere meglio la nostra vita mentale da cui dipende la nostra libertà, la serenità e la voglia di vivere con entusiasmo sempre crescente ogni attimo della nostra esistenza sentendoci consapevoli di tutte le trasformazioni sulle informazioni che la nostra mente prende costantemente in considerazione e dandoci la possibilità di fornire al nostro operare quella elasticità che è alla base di una convivenza sociale in continua evoluzione, senza subirne i traumi che si possono verificare con l’insicurezza che viene provocata dai mutamenti, adattando il nostro pensiero ad anticipare nel tempo la realtà effettuale e rendendolo estremamente potente in quanto consapevoli della sua costituzione e permettendo così la realizzazione effettiva di una situazione mentale libera da ogni influsso che derivi da una qualsiasi presa di posizione o condizionamento imposto per ragioni che falsificano la verità della costituzione stessa dell'operare della mente. L'analisi che verrà svolta quindi sarà incentrata sulle caratteristiche “software” o di processo della costituzione dell'operare mentale e dove sarà fattibile, con le possibilità che mi saranno date, verranno affrontate delle ricerche di comparazione con la struttura “hardware” o di costituzione fisico-cerebrale, per tentare di dare la maggior completezza possibile allo studio condotto in termini cibernetici della mente. Il presupposto iniziale per lo studio della mente umana è il fatto che noi possiamo soltanto affidarci all'analisi comportamentale e quindi ripercorrere il tragitto della costituzione del pensiero fino alle basi categoriali dello stesso attraverso una difficile analisi introspettiva che per forza maggiore ci porta a distaccarci attenzionalmente dal pensiero stesso senza per questo esserne gli artefici, non solo, ma bisogna affrontare questa operazione partendo dalla presa di coscienza che una mente è un mondo a se stante singolare in tutte le sue qualità e quindi il ricercare le radici dei sistemi operativi rimane una questione incentrata su una metodologia scarnata da un qualsiasi sentire soggettivo, dove si prospetta oltretutto il rallentamento delle attività mentali stesse, in altre parole bisogna compiere una operazione di annullamento della propria “istintività di pensiero” e porci nelle condizioni di pensare ed analizzare l'operare stesso come se chi compie l'azione fosse un'altra persona e osservando nel contesto, passo dopo passo, tutto quanto accade; questo modo di agire mentalmente aiuta moltissimo in qualsiasi caso, si pensi ad esempio al fatto di porci nei panni della persona che abbiamo di fronte e che comunica con noi, saremmo senza dubbio più propensi ad una comprensione effettiva delle ragioni che spingono quel soggetto ad un determinato atteggiamento, oltretutto, potremmo meglio incidere con il nostro comportamento per una evoluzione positiva della comunicazione, saremmo in grado di ottenere con i migliori profitti per entrambi i frutti di una qualsiasi situazione, saremmo effettivamente nelle condizioni ideali per agire in piena libertà senza nessun condizionamento di carattere comunicativo di costituzione soggettiva, né di arroccamenti di opinioni, saremmo potenzialmente attivi per dei processi di espansione degli stati attenzionali che sono all'origine dei processi a tendenza positivistici che permettono una sensazione generale di pienezza e attiveremmo tutti i meccanismi mentali di disinibizione, raggiungendo quello stato di libertà che è alla base della umana felicità. Una volta appreso questo tipo di "ginnastica" mentale, il processo della comunicazione diverrà automaticamente più efficace e nessuno ci vieterà di velocizzare tutte le operazioni di conversione concettuale, rendendo possibile una interazione profonda di comunicazione che si svolgerà permettendo la reciproca comparazione fra i livelli di conoscenza, nella residenzialità di poter "sentire" le nostre menti comunicare. E` forse fin troppo facile da scrivere quanto sopra esposto in modo del tutto sintetico ma il processo di base dobbiamo ora analizzarlo nei minimi dettagli e capiremmo che si tratta di operazioni complesse, che a volte costano la fatica della teorizzazione sia questa “entalpica” od “entropica”, si tratta di cercare di individuare tutti i meccanismi che sono le fondamenta delle attività mentali e per questa operazione siamo costretti a teorizzare, ad ipotizzare delle strutture di operazioni che sono molto complicate, avendo a disposizione soltanto ciò che possiamo vedere e sentire, per cui siamo costretti ad affidarci ancora a delle metodologie che sono applicative di un contesto matematico, dobbiamo ancora una volta pensare alla mente come ad una scatola nera e scoprire che cosa contiene, in altre parole, possiamo partire dalle congetture inferenziali di studio dei processi di causa-effetto, dove la causa può essere una comunicazione intesa come forma di atteggiamento o componente comportamentale oppure una reazione interna a degli stimoli che noi non possiamo conoscere, o più semplicemente una singola informazione considerando l’effetto ancora come un comportamento o uno stimolo o ancora un’altra informazione. Dobbiamo osservare e capire che cosa succede mettendo in relazione due grandezze per lo più omogenee o in altri casi complesse, studiando il mondo mentale in relazione a se stesso e in relazione ad altri; ecco il perché della introduzione dei sistemi di controreazione, visti sotto un aspetto teorico, proprio con gli stessi metodi dovremmo ora fornire le risposte che ipotizzano il funzionamento dei processi mentali, partendo da uno schema che ci consenta di analizzare nel modo più razionale le attività cerebrali che non hanno nessun riferimento fisico se non quello di essere fonte di trasformazioni energetiche, siamo dunque nelle stesse condizioni di chi si trova per la prima volta di fronte ad una macchina sofisticatissima e ne vuole capire il funzionamento, ma siamo anche avvantaggiati dal fatto che quella macchina è in noi e la possiamo sentir lavorare! Partiamo allora, forti della esperienza fatta per l’analisi dei sistemi contro-reazionati, a progettare uno schema che sia il più elastico possibile e che ci consenta di definire alcune grandezze che sono le componenti essenziali per la comprensione del funzionamento della mente sotto il profilo “logonico”. Facciamo innanzitutto una considerazione di base, che consiste nel dichiarare il fatto che la mente è un sistema in grado compiere delle trasformazioni energetiche in quanto le informazioni hanno come supporto appunto delle fonti di energia che sono i neuroni e che compongono a loro volta il sistema nervoso cerebrale, quindi la mente, lavorando su delle informazioni, che nel senso più generale si possono sempre considerare come composte da energia in evoluzione, è un sistema che da un punto di vista meccanicistico rientra nella categoria dei sistemi contro-reazionati o a tendenza, si può quindi ipotizzare uno schema simile a quelli proposti nel capitolo precedente. Lo schema di base che io vorrei proporre per l’inizio dello studio dei processi mentali è il seguente: Nel prossimo Articolo andremo a spiegare il significato di questo schema. Per alleggerire l'intera analisi sullo strumento MENTE abbiamo deciso insieme al Team di I.A. Italia di suddividere l'intero testo originale in una serie di Articoli consecutivi, dove passo passo andremo a vedere tutta la serie di ipotesi sul funzionamento della mente umana. Questa è la lista dei prossimi articoli : Lo strumento “mente” IL SERVOMECCANISMO MENTALE GLI ENGRAMMI I CONCETTI GLI STATI ATTENZIONALI LE FUNZIONI ATTENZIONALI IL CONCETTO DI VARIABILE LA SOVRAPPOSIZIONE DEGLI EFFETTI LA CURIOSITA` ATTIVITA‘ PERCETTIVE LA COGNIZIONE LA CONCENTRAZIONE L’INTELLIGENZA IL SISTEMA INFERENZIALE Grazie mille per la lettura, commenta l'articolo per qualsiasi domanda o se anche tu non vedi l'ora che esca il prossimo Articolo della serie.
- Intelligenza artificiale nel settore della ristorazione, come applicare l' IA al tuo ristorante
Secondo Greg Creed, CEO di Yum Brands, l'intelligenza artificiale (AI), i robot e l'automazione potrebbero sostituire gli esseri umani nel settore dei servizi alimentari entro la metà degli anni '20. I ristoratori stanno già beneficiando della tecnologia , inclusa l'intelligenza artificiale, per ottimizzare la loro attività. Questa tendenza è destinata a continuare man mano che l'IA diventerà più economica e accessibile. L'adozione diffusa dell'IA e dell'automazione influenzerà il modo in cui i ristoranti assumono e utilizzano il personale. I vantaggi dell'intelligenza artificiale nel settore della ristorazione vanno oltre i robot che accettano ordini, producono e consegnano cibo. L'intelligenza artificiale è anche in grado di aiutare i proprietari di ristoranti a dare un senso ai dati per migliorare l'esperienza dei commensali. Indice: Vantaggi e Rischi L'intelligenza artificiale per il tuo ristorante Come sono applicate queste tecnologie nelle più grandi catene di ristorazioni del mondo Investi in Intelligenza Artificiale nel tuo ristorante Vantaggi e rischi della tecnologia di intelligenza artificiale per il settore della ristorazione I ristoranti sono sempre alla ricerca di modi per ridurre i costi del lavoro , soprattutto dato che il salario minimo è aumentato in molti stati. L'elevato turnover del personale è anche una caratteristica del settore della ristorazione. Sempre più spesso, i proprietari di ristoranti cercano l'intelligenza artificiale per affrontare e superare queste sfide. Tuttavia, ci sono sia vantaggi che rischi nell'utilizzo dell'I.A. nei ristoranti e i proprietari devono intraprendere la due diligence per decidere quale tecnologia IA (se presente) è giusta per loro. Vantaggi dell'I.A. Risparmio: l' utilizzo dell'I.A. nei ristoranti riduce le spese e lo stress associati all'assunzione e alla gestione delle persone. I proprietari di ristoranti non devono più pensare ai dipendenti che necessitano di ferie o di assentarsi per malattia . Efficienza: l' utilizzo dell'I.A. sotto forma di robot nei ristoranti potrebbe portare a un'esperienza coerente per i clienti. Laddove i robot vengono utilizzati per preparare il cibo, prepareranno i pasti secondo le specifiche ogni volta. Meno errori : l'intelligenza artificiale può essere utilizzata per automatizzare i processi per eliminare l'errore umano. I robot che preparano il cibo o svolgono altre funzioni di back-office non si sentiranno sotto pressione durante le ore di punta. l. A. contrario, le persone hanno maggiori probabilità di commettere errori quando lavorano in un periodo di stress . Ripetizione: l' intelligenza artificiale può essere utilizzata nei ristoranti per svolgere lavori monotoni e ripetitivi come il lavoro di preparazione. È probabile che eseguano queste attività più velocemente degli umani e abbiano anche la capacità di svolgere più attività senza commettere errori. Rischi di I.A. Costi: la maggior parte dei tipi di intelligenza artificiale sono costosi da sviluppare e implementare. Per questo motivo, i ristoranti più grandi sono in una posizione migliore per sfruttare i vantaggi che l'AI ha da offrire. Stagnazione: l' IA non è in grado di adattarsi a diversi ambienti perché non migliora con l'esperienza. Pertanto, gli imprenditori devono continuare a pagare per gli aggiornamenti per stare al passo con i cambiamenti. Disoccupazione: la sostituzione degli esseri umani con l'intelligenza artificiale può comportare un'elevata disoccupazione. Tuttavia, Gartner prevede che, entro il 2021, l'IA creerà più posti di lavoro di quanti ne elimini . Inefficienza: sebbene alcune IA possano aumentare l'efficienza, non è sempre così. Ad esempio, un ristorante cinese ha smesso di usare camerieri robot perché non potevano prendere gli ordini correttamente e avevano problemi a svolgere altre semplici attività, come trasportare la zuppa. Tecnologia I.A. per ristoranti Nonostante i rischi connessi all'uso dell'IA, alcuni ristoranti continuano a sviluppare questa tecnologia perché ritengono che i benefici superino gli svantaggi. I seguenti sono esempi di come l'industria della ristorazione utilizza l'IA: Robotica Self-Service intelligenti Chatbot App per servizi di ristorazione Robotica Miso Robotics è una start-up con sede in California che fornisce soluzioni robotiche AI per le cucine. Hanno sviluppato un assistente di cucina artificiale intelligente chiamato Flippy. Questo robot può aiutare con diverse attività in cucina come friggere, grigliare e impiattare. Software e sensori con telecamere consentono a Flippy di monitorare aspetti importanti della preparazione del cibo, come il controllo della temperatura. Miso Robotics ha collaborato con CaliBurger per utilizzare Flippy nel loro ristorante di Pasadena. Flippy userà panini e altri ingredienti per preparare gli hamburger. CaliBurger intende utilizzare Flippy nelle sue oltre 50 sedi in tutto il mondo entro la fine del 2019. MasterCard ha collaborato con SoftBank , un'azienda tecnologica giapponese, per sviluppare Pepper, un robot cameriere guidato dall'intelligenza artificiale. Pepper è in grado di accettare gli ordini dei clienti, consigliare prodotti e accettare pagamenti tramite MasterCard. Apparentemente, i clienti possono parlare con Pepper come parlerebbero con un essere umano e riceverebbero lo stesso livello di servizio. Pizza Hut ha acquistato una serie di robot Pepper da utilizzare nei suoi ristoranti in Asia. Self-service intelligenti Una tendenza della tecnologia dei ristoranti AI sono i chioschi intelligenti, che fanno parte della tecnologia self-service. Si prevede che il mercato mondiale della tecnologia self-service aumenterà da $ 54,4 miliardi nel 2018 a $ 83,5 miliardi entro il 2022 . I chioschi intelligenti sono stati introdotti da grandi ristoranti in franchising come McDonald's, come parte del loro concetto di "esperienza del futuro". I chioschi intelligenti forniscono ai clienti un modo per ordinare cibo attraverso un menu digitalizzato. L'intelligenza artificiale guida chioschi intelligenti grazie alla raccomandazione di prodotti in base alle preferenze o persino al tempo. I clienti possono anche selezionare diverse opzioni, come il sale extra sulle patatine fritte o più salsa negli hamburger. Sebbene l'uso di chioschi intelligenti in McDonald's sia stato considerato un modo per risparmiare sui costi del lavoro, il CEO di McDonald's, Steve Easterbrook, ha consigliato : " In realtà non è inteso come un sostituto del lavoro ... Possiamo solo riorganizzare quel lavoro in ruoli più orientati al servizio che riteniamo che il cliente trarrà vantaggio [da] in entrambi i modi." Wendy's è un'altra catena di fast food che ha installato chioschi intelligenti. Tuttavia, a differenza di McDonald's, il Chief Information Officer di Wendy, David Trimm, ha affermato che i chioschi intelligenti faranno risparmiare sui costi di manodopera e aumenteranno le vendite . Trimm ha anche spiegato che i chioschi intelligenti forniranno una migliore esperienza al cliente, soprattutto tra i clienti più giovani perché preferiscono utilizzare i chioschi. KFC China ha sviluppato una tecnologia AI di riconoscimento facciale per prevedere gli ordini dei clienti. Un portavoce di KFC ha detto: "Il sistema abilitato all'intelligenza artificiale può consigliare voci di menu in base all'età e all'umore stimati del cliente." Il motore di ricerca cinese Baidu , che ha sviluppato questa tecnologia con KFC, ha ulteriormente spiegato come funzionerebbe in termini pratici questo sistema abilitato all'intelligenza artificiale. Hanno consigliato: "... a un cliente di sesso maschile sui 20 anni" sarebbe stato offerto "un pasto fisso a base di hamburger di pollo croccante, ali di pollo arrosto e coca cola", mentre "una cliente sulla cinquantina" avrebbe ricevuto una raccomandazione di "porridge e latte di soia per colazione." Tendenze tecnologiche per i ristoranti con intelligenza artificiale La robotica e i chioschi intelligenti sono ancora agli inizi. Di seguito sono riportate alcune tendenze dei ristoranti di intelligenza artificiale che sono state ampiamente adottate: Chatbot Business Insider prevede che l'80% delle aziende utilizza già i chatbot o prevede di utilizzarli entro il 2020. I chatbot possono aiutare i ristoranti a fornire assistenza ai clienti 24 ore su 24. Questa tendenza della tecnologia AI sta crescendo in popolarità perché fornisce informazioni ai clienti in base a fattori predeterminati, come la loro posizione nell'imbuto di vendita. Domino's Pizza ha annunciato a febbraio 2017 di aver migliorato i suoi chatbot di Facebook per consentire a chiunque di ordinare qualsiasi elemento dal proprio menu. I chatbot chiederanno al cliente informazioni rilevanti, ad esempio se desiderano la consegna o il ritiro. I clienti devono solo inserire la parola "pizza" per avviare il processo di ordinazione. Dato che l'attenzione di Domino's Pizza sulla tecnologia l'ha aiutata a raggiungere circa $ 4,7 miliardi di vendite globali ogni anno, non c'è da meravigliarsi che il vicepresidente senior e Chief Digital Officer di Domino, Dennis Maloney, abbia dichiarato : “Il lancio degli ordini di Messenger con Pizza Profiles è stato un ottimo primo passo, ma le capacità di ordinazione di Dom continuano a progredire man mano che la tecnologia AnyWare di Domino si evolve. Ci consideriamo un marchio in evoluzione e volevamo creare un'esperienza di ordinazione ancora più grande e migliore per i clienti ". Starbucks' My Starbucks barista è stato lanciato nel 2017 e consente ai clienti di essere in grado di parlare in app per ordinare del cibo. I clienti possono anche modificare l'ordine delle bevande utilizzando questo metodo. Il chatbot è progettato per replicare l'interazione con un barista umano . L'intelligenza artificiale viene utilizzata per elaborare gli ordini tramite un'interfaccia di messaggi. Questo chatbot abilitato alla voce offre anche l'opportunità ai clienti di pagare i loro ordini. Starbucks continua anche la tendenza della tecnologia AI per ristoranti introducendo l' abilità "Riordina Starbucks" per Amazon Alexa. I clienti utilizzano il voice computing per dire "Alexa, ordina il mio Starbucks" per effettuare un ordine per il cibo e le bevande abituali. Starbucks ha utilizzato in precedenza altre tecnologie di ristorazione, come i pagamenti mobili. Pertanto, non sorprende che continuino a trarre vantaggio dalle ultime tendenze nell'intelligenza artificiale dei ristoranti. L'utilizzo del potere dei chatbot non è riservato solo ai grandi ristoranti di cibo. I ristoranti di qualsiasi dimensione possono trarre vantaggio dalle capacità di intelligenza artificiale dei chatbot. Aziende come Say2eat aiutano i ristoranti a interagire con più clienti utilizzando i chatbot. Say2eat offre chatbot a marchio ristorante tramite Facebook Messenger, Amazon Echo e SMS. App per servizi di ristorazione Le app di ristorazione stanno ora utilizzando l'intelligenza artificiale a vantaggio dell'industria della ristorazione, non solo a livello di servizio clienti, ma anche per migliorare la qualità del cibo. Fondata nel 2013, TellSpec è un'azienda di intelligenza artificiale che ha sviluppato uno scanner portatile per classificare il contenuto del cibo a livello molecolare. Usano tecniche bioinformatiche e algoritmi di apprendimento per fornire informazioni sugli ingredienti e altri dettagli sul cibo. Una luce viene irradiata direttamente sull'alimento per leggere i composti chimici prima che le informazioni vengano caricate attraverso i sistemi di analisi di TellSpec. I ristoratori possono ricevere i dati sul cibo tramite i loro smartphone. Questo tipo di intelligenza artificiale può avvantaggiare l'industria della ristorazione perché TellSpec afferma che la sua tecnologia può identificare le sostanze nocive negli alimenti. Possono anche essere identificate sostanze che causano allergie. Calorie e macronutrienti sono riconosciuti per fornire ai clienti maggiori informazioni sulla composizione del loro cibo. Questa tecnologia AI offre vantaggi in relazione alla sicurezza alimentare e funge da sistema di verifica e salvaguardia per i ristoranti. I clienti stanno diventando sempre più preoccupati per le origini e la composizione del loro cibo. La tecnologia AI come TellSpec offre ai clienti la fiducia grazie alla trasparenza in relazione ai valori nutrizionali e ad altre informazioni rilevanti. Investi nel tuo ristorante I risparmi sui costi e una migliore esperienza del cliente guidano le tendenze della tecnologia AI nel settore della ristorazione . I vantaggi dell'intelligenza artificiale si stanno realizzando da ristoranti grandi e piccoli. Inoltre, sembra che i vantaggi dell'utilizzo dell'IA oscurino i rischi, quindi la crescita di applicazioni come i chatbot. Sebbene alcuni temano che l'aumento dell'uso dell'IA significhi che gli esseri umani non saranno più necessari, i giganti della ristorazione come McDonald's sostengono che agli umani verranno assegnati compiti diversi che non possono essere svolti dalle macchine. Indipendentemente dal tipo di intelligenza artificiale che stai considerando di adottare nel tuo ristorante, avrai comunque bisogno dei tuoi dipendenti, anche se potresti dover fornire loro nuove attività. Grazie per la lettura, Che ne pensi dell'I.A. nella ristorazione? Pensi sia utile? faccelo sapere nei commenti ...
- Le Smart House. Tra domotica e intelligenza artificiale la nuova frontiera delle case intelligenti.
A cosa serve la smart home e come si collegano domotica e intelligenza artificiale? L'intelligenza artificiale è una delle tecnologie più promettenti su cui si concentrano la maggior parte degli investimenti nella ricerca ICT di aziende di diversi settori: in campo medico è già ampiamente utilizzato per la diagnosi in meteorologia aiuta a prevedere fenomeni naturali come alluvioni e terremoti nel settore bancario, può anticipare e combattere efficacemente le frodi nelle transazioni nella pubblica amministrazione genera interoperabilità tra i servizi nella domotica, crea case intelligenti CHE COS'È LA DOMOTICA? Che relazione c'è tra intelligenza artificiale e domotica? La domotica è la scienza che si occupa di tecnologie volte al miglioramento della vita domestica attraverso sistemi in grado di apprendere le abitudini degli abitanti della casa in base alle loro richieste, grazie all'intelligenza artificiale (AI). L'intelligenza artificiale è quindi la capacità di un computer di replicare le funzioni tipiche della mente umana. La connessione wireless ha sicuramente favorito la diffusione di dispositivi connessi alla rete, il cosiddetto Internet of Things. Molte attività quotidiane sono state semplificate ei dati contenuti nei nostri dispositivi (chiamati anche big data) sono molto più che in passato. L'Internet of Things, la rete di dispositivi connessi a Internet, include sensori di fitness, automobili, radio, condizionatori d'aria, elettrodomestici, lampadine, fotocamere e molto altro ancora. Qualsiasi dispositivo elettronico dotato di software che gli consenta di scambiare dati con altri oggetti connessi rende gli oggetti riconoscibili e intelligenti. CASA INTELLIGENTE, TRA DOMOTICA E INTELLIGENZA ARTIFICIALE Alexa e l'assistente di Google sono in grado non solo di rispondere alle nostre domande, ma anche di anticiparle o darci suggerimenti in base alle nostre abitudini. Oggi, grazie all'intelligenza artificiale, il nostro smartphone suggerisce di prenotare un determinato ristorante o negozio grazie alle informazioni memorizzate da Google Maps. La casa intelligente assimila il comportamento dell'utente e suggerisce azioni successive, come accendere il riscaldamento e attivare la lavastoviglie durante il giorno in una certa ora per risparmiare denaro. Una successiva evoluzione dell'intelligenza artificiale è l'analisi delle emozioni degli utenti con suggerimenti per la vita quotidiana e comportamenti complessi, come indossare un particolare tipo di abbigliamento per un incontro di lavoro. APPLICAZIONI E SISTEMI IOT INTEGRATI IN AMBIENTI DOMESTICI Ma cosa significa adottare applicazioni e sistemi IoT integrati negli ambienti domestici? Quasi tutti ormai possiedono in casa un oggetto smart per risparmiare tempo nella gestione quotidiana delle faccende domestiche, per risparmiare denaro ed essere avvisati in tempo reale in caso di effrazione. Gli accessori smart, infatti, possono essere gestiti anche da remoto, purché si disponga di una rete internet e di un dispositivo con l'app dedicata da cui inviare comandi remoti. VIDEOCAMERA E SISTEMI ANTI INTRUSIONE La decisione di installare telecamere vicino alla nostra abitazione deve essere accompagnata dal rispetto della normativa vigente della zona in cui si svolgeranno le riprese. È bene scegliere un prodotto che garantisca la sicurezza sia dal punto di vista hardware che software, e che preveda la crittografia delle immagini. Ad oggi esistono già molte soluzioni di videosorveglianza con software di Intelligenza Artificiale, in grado di riconoscere volti, persone e molto altro. Questa animazione qui sotto è un semplice esempio di Video Sorveglianza dotata di Intelligenza artificiale in grado di riconoscere il tuo cane TELEVISORI E RICONOSCIMENTO VOCALE Gestire la climatizzazione della tua casa solo da un'app sul tuo smartphone è ora possibile, risparmiando tempo e denaro. Le nuove smart TV ci consentono di ascoltare musica, navigare online e collegare i nostri account Amazon Prime Video e Netflix. I dispositivi di riconoscimento vocale sono sicuramente quelli che più di tutti presentano i rischi per la privacy. Alexa, Google Home, Amazon Echo e gli altri piccoli robot, che utilizzano l'AI per memorizzare informazioni su di noi, sfruttano complessi meccanismi di autoapprendimento, acquisendo molti dati personali che potrebbero essere usati contro di noi o facilmente divulgabili. IL FUTURO DELLA CASA INTELLIGENTE DOPO IL CES 2020 Si prevede che l'intelligenza artificiale non solo sarà in grado di dare suggerimenti utili all'utente, ma che sperimenterà in autonomia con i dati ottenuti e con sensori come lo smartwatch. In altre parole, l'assistente virtuale diventa il nostro stretto collaboratore. Al CES 2020 gli esperti hanno parlato di fiducia, fiducia come strumento di marketing per le aziende che sviluppano queste soluzioni ultra innovative nel settore della smart health e della smart home. La fiducia deve derivare soprattutto dalla conoscenza del percorso esatto che i nostri dati compiono e di come vengono utilizzati, senza fidarci ciecamente della comodità di un servizio che ci semplifica la vita. COME PROTEGGERE LA NOSTRA PRIVACY? Ecco alcune precauzioni da prendere quando si utilizzano sistemi IoT, se seguirai questi consigli ti assicuriamo che con molta probabilità sarai esposto ad almeno la metà dei pericoli : poiché tutti i dispositivi sono collegati ad una rete wi-fi per funzionare, è importante rendere questa rete più sicura, magari utilizzando un router affidabile e cambiando sempre la password di default. È inoltre fondamentale modificare il nome della rete per evitare di renderlo identificabile e riconducibile a noi registrare ogni dispositivo sul sito del produttore ed effettuare tutti gli aggiornamenti consigliati, perché spesso sono legati a correzioni ai sistemi di sicurezza del software scollegare sempre i dispositivi inutilizzati per evitare di lasciarli "in ascolto" se non li stiamo utilizzando. Lo stesso vale per la rete Wi-Fi ripristinare le impostazioni predefinite di fabbrica prima di eliminare i dispositivi, per rimuovere tutti i nostri dati dal dispositivo prima di lasciarlo per sempre LA DIFFUSIONE DELL'INTELLIGENZA ARTIFICIALE, LE APPLICAZIONI NELLA VITA QUOTIDIANA L'innovazione nella vita quotidiana è iniziata con la domotica e con la diffusione di dispositivi come Google Home o Alexa, assistenti domestici virtuali che si integrano nello spazio personale degli utenti, ne memorizzano le abitudini e operano sugli ambienti e sugli oggetti della casa, attivando e / o controllandoli. Un aspetto fondamentale dell'intelligenza artificiale è la ricerca sulle TIC. Ogni volta che interagiamo con la ricerca, inviamo un segnale ai sistemi di AI, che di conseguenza utilizzano quei dati per migliorarsi e fornirci le risposte migliori, più veloci e più rilevanti. L'intelligenza artificiale può persino consigliare agli agricoltori il momento migliore per piantare colture e monitorare il loro benessere, può proteggere i dispositivi da malware e persino aiutare gli scienziati a curare malattie e disturbi. Pertanto, l'IA non solo migliora la nostra qualità della vita, ma aiuta a salvare vite umane. Il suo impatto è molto ampio ma non ne siamo ancora pienamente consapevoli. Ecco alcune delle aree in cui l'intelligenza artificiale è più diffusa: viaggio: il tradizionale TomTom viene sostituito da applicazioni in grado di apprendere dagli input dell'utente, di identificare i percorsi evitando code, incidenti stradali e rallentamenti. Questi servizi di navigazione apprendono dalle abitudini degli utenti automotive: i veicoli a guida autonoma imparano dall'esperienza e possono virtualmente guidare le auto e prevenire gli errori del conducente. Pensa anche alle personalizzazioni in base alle esigenze dell'autista, dalla temperatura alla musica, dal pagamento del pedaggio al carburante e alle fermate programmate in autogrill ricerche online: i motori di ricerca sfruttano l'intelligenza artificiale imparando costantemente dal comportamento degli utenti per offrire risultati personalizzati sport: i maggiori brand di abbigliamento sportivo puntano sempre di più su app da abbinare a prodotti specifici. Pensa alle scarpe che calcolano la performance e comunicano parametri vitali, che suggeriscono le attività da svolgere e monitorano gli obiettivi raggiunti Le nuove soluzioni consumer sono ancora in crescita oggi per arricchire l'esperienza utente in ogni area. Vediamone alcuni. INTELLIGENZA ARTIFICIALE E ASSISTENZA AGLI ANZIANI Esistono robot in grado di aprire porte, salire scale, afferrare oggetti, riconoscere lo stato emotivo degli anziani, sollevare pazienti non più autonomi, riconoscere i volti delle persone e monitorare i movimenti del corpo, assistere i malati e aiutare gli anziani a rimanere attivi e impegnati . Anche se tutto questo sembra ancora fantascienza, la robotica e la domotica stanno già cambiando la nostra società. Cosa diventerà il lavoro umano? L'intelligenza artificiale può essere applicata in vari modi per assistere gli anziani, poiché simula i movimenti delle persone e ne comprende le esigenze. SMART HOME, SOLUZIONI PER LA CASA E DOMOTICA PER L'ASSISTENZA La casa intelligente è un sistema intelligente che gestisce diverse funzioni domestiche, come l'assistente Google e Alexa che interagiscono con gli elettrodomestici. Sono in grado di monitorare aspirapolvere, forni, lavatrici, pentole a pressione con il solo comando vocale. Allo stesso modo, la casa intelligente può prevenire fughe di gas, allagamenti e incendi, può facilitare il risparmio energetico e la climatizzazione intelligente. È possibile connettersi da remoto con i servizi di emergenza medica e monitoraggio remoto degli anziani, grazie alle telecamere installate in casa. In altre parole, la domotica semplifica la vita di tutti i giorni. L'Internet of Things può essere applicato anche all'interno dell'ambiente domestico. La piattaforma aperta Home Connect offre la regolazione dell'illuminazione, dei dispositivi di intrattenimento e delle attrezzature da giardinaggio intelligenti di diversi produttori. Pensi posano esserci altri utilizzi ? faccelo sapere qui nei commenti, grazie mille per la lettura.
- Esempio pratico di Machine Learning con Python : Stimare / Prevedere il prezzo degli appartamenti
Prerequisiti : Se non sai perchè utilizzeremo python, clicca qui Se non hai ancora installato Python, clicca qui Se non sai come scaricare e gestire le librerie, clicca qui Se non sai cosa sia un Dataset, clicca qui Introduzione Personalmente penso che i progetti sono il modo migliore per approfondire la conoscenza della scienza dei dati e delle applicazioni dell'intelligenza artificiale. Infatti, non solo i neofiti, ma anche i professionisti esperti di livello medio possono aggiornare il proprio curriculum con nuovi progetti interessanti. Dopotutto, non sono facili. Ci vuole molto tempo per creare un progetto che possa davvero mostrare la profondità e l'ampiezza delle tue conoscenze. Spero che questo progetto ti aiuti ad acquisire le conoscenze necessarie e che il tuo curriculum venga inserito più rapidamente nella rosa dei candidati. Questo progetto mostra tutti i passaggi (da zero) effettuati per risolvere un problema di Machine Learning. Per la tua comprensione, ho preso un set di dati semplice ma impegnativo in cui puoi anche progettare le funzionalità a tua discrezione. Questo progetto è più adatto a persone che hanno una conoscenza di base di Python. Anche se sei assolutamente nuovo, provalo. E fai domande nei commenti qui sotto. Processo di previsioni di machine learning "Continua a tormentare i dati finché non iniziano a rivelare i loro segreti nascosti." Fare previsioni utilizzando l'apprendimento automatico non significa solo acquisire i dati e fornirli agli algoritmi. L'algoritmo potrebbe emettere qualche previsione ma non è quello a cui stai mirando. Il processo è il seguente: Capire il problema: prima di iniziare a lavorare sui dati, è necessario comprendere il problema che stiamo cercando di risolvere. Se conosci già la soluzione al problema di machine learning, pensa a quali fattori potrebbero svolgere un ruolo fondamentale nella risoluzione del problema e passa al terzo step. Se ancora devi elaborare una strategia o una risoluzione passa al secondo step. Facciamo qualche ipotesi: Questo è abbastanza importante, ma spesso viene dimenticato. In parole semplici, la generazione di ipotesi si riferisce alla creazione di un insieme di caratteristiche che potrebbero influenzare la variabile obiettivo/target. Possiamo farlo prima di esaminare i dati per evitare pensieri o conclusioni affrettate. Questo passaggio spesso aiuta a creare nuove funzionalità. Iniziamo a lavorare sui dati: ora, scarichiamo i dati e li esaminiamo. Determina quali funzionalità (possibili standardizazioni o normalizazioni ad esempio) dei dati sono disponibili e quali no. Rispondere a queste domande ci metterà sulla strada giusta. Creiamo il nostro modello:Utilizzando un algoritmo appropriato, addestriamo il modello sul set di dati specificato. Valutazione del modello: una volta addestrato il modello, valutiamo le prestazioni del modello utilizzando una metrica di errore adeguata. Qui, cerchiamo anche l'importanza della variabile, cioè quali variabili si sono dimostrate significative nel determinare la variabile di destinazione. Di conseguenza, possiamo selezionare le migliori variabili e addestrare nuovamente il modello. Testiamo il nostro modello: Infine, testiamo il modello sul set di dati invisibili (dati di test). Seguiremo questo processo nel progetto per arrivare alle nostre previsioni finali. Iniziamo. Scarica Gratis il progetto 1) Capire il problema Il set di dati per questo progetto è stato preso dal set di appartamenti di Kaggle. Come accennato in precedenza, il set di dati è semplice. Questo progetto mira a prevedere i prezzi delle case (residenziali) ad Ames, USA. In questo caso il nostro problema è andare a creare un modello in grado di predire il prezzo di questi appartamenti in base alle caratteristiche che abbiamo. 2) Facciamo qualche ipotesi Bene, ora arriva la parte divertente. Quali fattori riesci a pensare in questo momento che possono influenzare i prezzi delle case? Mentre leggi questo, voglio che tu annoti anche i tuoi fattori. La definizione di un'ipotesi ha due parti: ipotesi nulla (0) e ipotesi concreta (1). Possono essere intese come: 0 - Non esiste alcun impatto di una particolare caratteristica sulla variabile dipendente. 1 - Esiste un impatto diretto di una caratteristica particolare sulla variabile dipendente. Sulla base di un criterio decisionale (diciamo, livello di significatività del 5%) definiamo due classi : "Rifiuto" "Accetto" In pratica, durante la creazione del modello cerchiamo valori di probabilità (p). Se il valore p<0.05, Rifiuto e quindi si avvera l'ipotesi nulla. Se p> 0.05 ci troviamo nel caso di ipotesi concreta e quindi quella caratteristica la Accettiamo perchè ha una correlazione con il nostro target. Alcuni fattori a cui posso pensare che influenzano direttamente i prezzi delle case sono i seguenti: Area della casa Quanti anni ha la casa Posizione della casa Quanto è vicino / lontano il mercato Connettività della posizione della casa con i trasporti Quanti piani ha la casa Quale materiale viene utilizzato nella costruzione Disponibilità di acqua / elettricità Area giochi / parchi per bambini (se presenti) Se la terrazza è disponibile Se il parcheggio è disponibile Se la sicurezza è disponibile …continua a pensare. Sono sicuro che puoi inventarne molti altri oltre a questi. 3) Iniziamo a lavorare sui dati Puoi scaricare i dati e caricarli nel tuo IDE python. Test.csv Train.csv Il set di dati è costituito da 81 variabili esplicative. Sì, non sarà una passeggiata per chì vorrà approfondire fino in fondo tutto il Dataset. Ma impareremo come gestire così tante variabili. La variabile di destinazione è SalePrice. Iniziamo a scrivere un po di codice e a divertiamoci. #Importiamo le librerie necessarie import numpy as np import pandas as pd import seaborn as sns from scipy import stats from scipy.stats import norm import matplotlib.pyplot as plt #Impostiamo la grandezza del grafico di matplotlib %matplotlib inline plt.rcParams['figure.figsize'] = (10.0, 8.0) #Carichiamo i dati che hai scaricato dal link train = pd.read_csv("train.csv") test = pd.read_csv("test.csv") #Stampiamo quante righe e colonne ha il nostro dataset print ('Train contiene {0} righe e {1} colonne'.format(train.shape[0],train.shape[1])) print ('----------------------------') print ('Test contiene {0} righe e {1} colonne'.format(test.shape[0],test.shape[1])) output : Train contiene 1460 righe e 81 colonne ---------------------------- Test contiene 1459 righe e 80 colonne In alternativa, puoi anche controllare le informazioni sul set di dati utilizzando il comando info (). train.info() output : RangeIndex: 1460 entries, 0 to 1459 Data columns (total 81 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 Id 1460 non-null int64 1 MSSubClass 1460 non-null int64 2 MSZoning 1460 non-null object 3 LotFrontage 1201 non-null float64 ..... 77 YrSold 1460 non-null int64 78 SaleType 1460 non-null object 79 SaleCondition 1460 non-null object 80 SalePrice 1460 non-null int64 dtypes: float64(3), int64(35), object(43) memory usage: 924.0+ KB Controlliamo se il set di dati ha valori mancanti. Questo è molto importante perchè in alcuni casi questi dati vengono completamente ignorati o scartati. In questo caso noi ci concentreremo solo sulle variabile numeriche e non nulle. train.columns[train.isnull().any()] Output: Index(['LotFrontage', 'Alley', 'MasVnrType', 'MasVnrArea', 'BsmtQual', 'BsmtCond', 'BsmtExposure', 'BsmtFinType1', 'BsmtFinType2', 'Electrical', 'FireplaceQu', 'GarageType', 'GarageYrBlt', 'GarageFinish', 'GarageQual', 'GarageCond', 'PoolQC', 'Fence', 'MiscFeature'], dtype='object') Procediamo e controlliamo la distribuzione della variabile target. #Distribuzione della variabile target sns.distplot(train['SalePrice']) Output: Vediamo che la variabile target SalePrice ha una distribuzione asimmetrica a destra. Avremo bisogno di registrare la trasformazione di questa variabile in modo che diventi normalmente distribuita. Una variabile target normalmente distribuita (o vicina al normale) aiuta a modellare meglio la relazione tra le variabili target e indipendenti. Inoltre, gli algoritmi lineari assumono una varianza costante nel termine di errore. In alternativa, possiamo anche confermare questo comportamento distorto utilizzando la metrica di asimmetria. #skewness print "Il skewness del prezzo è {}".format(train['SalePrice'].skew()) Output: The skewness of SalePrice is 1.88287575977 Registriamo la trasformazione di questa variabile e vediamo se la distribuzione di questa variabile può avvicinarsi alla normalità. #Trasformiamo la variabile di target target = np.log(train['SalePrice']) print('Skewness è', target.skew()) sns.distplot(target) Output: Skewness is 0.12133506220520406) Come hai visto, la trasformazione logaritmica della variabile target ci ha aiutato a correggere la sua distribuzione asimmetrica e la nuova distribuzione sembra più vicina alla normalità. Dato che abbiamo 80 variabili, visualizzarne una per una non sarebbe un approccio astuto. Invece, siccome lo studio risulterebbe molto lungo e complesso ci dedicheremo solo alle variabile numeriche tralasciando le categoriche. #Separiamo il dataset in altri 2 numerico e categorico numeric_data = train.select_dtypes(include=[np.number]) cat_data = train.select_dtypes(exclude=[np.number]) print ("ci sono {} colonne numeriche e {} categoriche".format(numeric_data.shape[1],cat_data.shape[1])) Output: Ci sono 38 colonne numeriche e 43 categoriche. Dovremmo rimuovere la variabile Id dai dati numerici. del numeric_data['Id'] Ora, siamo interessati a conoscere il comportamento di correlazione delle variabili numeriche. Su 38 variabili, presumo che alcune debbano essere correlate. Se trovate, possiamo successivamente rimuovere le variabili non correlate poiché non forniranno alcuna informazione utile al modello. #correlation plot corr = numeric_data.corr() sns.heatmap(corr) Notare l'ultima riga di questa mappa. Possiamo vedere la correlazione di tutte le variabili con SalePrice. Come puoi vedere, alcune variabili sembrano essere fortemente correlate con la variabile target. Qui, un punteggio di correlazione numerica ci aiuterà a capire meglio il grafico. print (corr['SalePrice'].sort_values(ascending=False)[:15], '\n') #top 15 variabili correlate print ('----------------------') print (corr['SalePrice'].sort_values(ascending=False)[-5:]) #last 5 variabili non correlate Output: SalePrice 1.000000 OverallQual 0.790982 GrLivArea 0.708624 GarageCars 0.640409 GarageArea 0.623431 TotalBsmtSF 0.6135811 stFlrSF 0.605852 FullBath 0.560664 TotRmsAbvGrd 0.533723 YearBuilt 0.522897 YearRemodAdd 0.507101 GarageYrBlt 0.486362 MasVnrArea 0.477493 Fireplaces 0.466929 BsmtFinSF1 0.386420 Name: SalePrice, dtype: float64 Qui vediamo che la OverallQual caratteristica è correlata al 79% con la variabile target. Overallqual variabile si riferisce al materiale complessivo e alla qualità dei materiali della casa completata. Bene, anche questo ha senso. Le persone di solito considerano questi parametri per la loro casa dei sogni. Inoltre, GrLivArea è correlato al 70% con la variabile target. GrLivAreasi riferisce alla zona giorno (in sq ft.). Le seguenti variabili mostrano che le persone si preoccupano anche se la casa ha un garage, l'area di quel garage, le dimensioni dell'area seminterrato, ecc. Tracciamo dei grafici qualitativi per vedere meglio che tipo di correlazioni hanno OverallQual e GrLivAreasi con il nostro target. Per quanto riguarda la variabile OverallQual procederemo dividendola in classi per poi rappresentarla in funzione del prezzo crescente per vedere cosa accade al prezzo con l'aumentare della qualità dei materiali. Il codice è il seguente train['OverallQual'].unique() Output: array([ 7, 6, 8, 5, 9, 4, 10, 3, 1, 2]) #grafichiamo le 10 classi di OverallQual in corrispondenza del prezzo pivot = train.pivot_table(index='OverallQual', values='SalePrice', aggfunc=np.median) pivot.plot(kind='bar', color='red') Outptu: Questo comportamento è abbastanza normale. Man mano che la qualità complessiva di una casa aumenta, aumenta anche il suo prezzo di vendita. Visualizziamo la successiva variabile correlata GrLivAreae comprendiamo il loro comportamento. #GrLivArea sns.jointplot(x=train['GrLivArea'], y=train['SalePrice']) Outptu: Come visto sopra, anche qui vediamo una correlazione diretta della zona giorno con il prezzo di vendita. Tuttavia, possiamo individuare un valore anomalo GrLivArea> 5000. Ho visto valori anomali giocare un ruolo significativo nel rovinare le prestazioni di un modello. Quindi, ce ne sbarazzeremo. Se ti piace questa attività, puoi visualizzare anche altre variabili correlate. Arrivati a questo punto bisognerebbe applicare i ragionamenti fatti per le variabili GrLivAreae e OverallQual per tutte le variabili che abbiamo a disposizione. Essendo questo un articolo di tutorial ci fermeremo a queste due variabili per l'analisi dell'esempio pratico di machine learning per non risultare troppo complesso o pesante per chi è alle prime armi. Ti invito comunque a giocare con le altre variabili e a creare un modello migliore di quello che creeremo all'interno dell'articolo. Ora elaboriamo le nostre variabili per avere un modello performante. #rimuoviamo i valori anomali train.drop(train[train['GrLivArea'] > 4000].index, inplace=True) train.shape #removed 4 rows` Output: (1456, 81) A questo punto ricreiamo i nostri dataset utilizzando solo le variabili che abbiamo scelto. Nel nostro caso saranno solo due. Ma ti invito a trovarne altre per rendere il tutto più divertente. #ridivido le x e y di allenamento e test newdataset = train[['GrLivArea','OverallQual','SalePrice']] X_train = train[['GrLivArea','OverallQual']] y_train = train['SalePrice'] X_test = train[['GrLivArea','OverallQual']] y_test = train['SalePrice'] Creiamo adesso un Pairplot e la Heatmap per avere una visione più completa delle correlazioni. sns.pairplot(newdataset) plt.show() Output: 4) Creiamo il nostro modello Ora che abbiamo un idea più concreta del nostro problema, delle ipotesi e che abbiamo lavorato il dato possiamo concentrarci nella creazione del nostro modello. In questo caso utilizzeremo due modelli diversi. Utilizzeremo prima il Random_Forest_Regression_Model e successivamente il Linear_Regression_Model così da poter successivamente confrontare i due modelli. Ho scritto questi due modelli come delle funzioni in modo tale che potrai riutilizzarli con i tuoi dati passandogli solamente il dataset e il target. Vediamo adesso il Random_Forest_Regression_Model: def Random_Forest_Regression_Model(dataset,target): X = dataset.loc[:, dataset.columns != target] y = dataset[target] from sklearn.ensemble import RandomForestRegressor from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0) model = RandomForestRegressor(random_state=1) model.fit(X_train, y_train) pred = model.predict(X_test)# Visualizing Feature Importance feat_importances = pd.Series(model.feature_importances_, index=X.columns) feat_importances.nlargest(25).plot(kind='barh',figsize=(10,10)) plt.show() y_pred = model.predict(X) labels = dataset[target] df_temp = pd.DataFrame({'Previsto': labels, 'Predetto':y_pred}) df_temp.head()# Creating Line Graph from matplotlib.pyplot import figure figure(num=None, figsize=(15, 6), dpi=80, facecolor='w', edgecolor='k') y1 = df_temp['Previsto'] y2 = df_temp['Predetto'] plt.plot(y1, label = 'Previsto') plt.plot(y2, label = 'Predetto') plt.legend() plt.show() from sklearn.metrics import mean_absolute_error as mae print(f'Errore Medio Assoluto ( MAE ) : {mae(y,y_pred)}') from sklearn.metrics import mean_squared_error, r2_score # Mean Error print('Mean squared error: %.2f' % mean_squared_error(y_pred, y)) # Se il coefficente di determinazione è 1 il modello è perfetto print('Coefficient of determination: %.2f' % r2_score(y_pred, y)) return model modelloRfM = Random_Forest_Regression_Model(newdataset,'SalePrice') Output: Errore Medio Assoluto ( MAE ) : 16674.011430222203 Mean squared error: 639043357.06 Coefficient of determination: 0.88 Passiamo ora alla regressione lineare. In realtà non andrai ad usare più modelli solitamente ma in questo caso ne vedremmo due per poi paragonarli e capire quali sono gli indicatori che ci aiutano a capire quale sia il migliore. Volendo in questo caso avere un modello performante ed un modello non performante effettueremo lo regressione utilizzando solo GrLivArea e il target SalePrice. Scriviamo il codice ed eseguiamolo def visualizza_Linear_Regression_Model(dataset, target): X = dataset.loc[:, dataset.columns != target] y = dataset[target] from sklearn.linear_model import LinearRegression from sklearn.model_selection import train_test_split from sklearn.metrics import mean_absolute_error as mae X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0) model = LinearRegression() model.fit(X_train, y_train) y_pred = model.predict(X) from matplotlib.pyplot import figure # Plot outputs plt.scatter(X, y, color='black') plt.plot(X, y_pred, color='blue', linewidth=3) plt.xticks(()) plt.yticks(()) plt.show() from sklearn.metrics import mean_squared_error, r2_score # Stampiamo il coefficente print('Coefficients: \n', model.coef_) # Mean Error print('Mean squared error: %.2f' % mean_squared_error(y_pred, y)) # Se il coefficente di determinazione è 1 il modello è perfetto print('Coefficient of determination: %.2f' % r2_score(y_pred, y)) return model modelloLM = visualizza_Linear_Regression_Model(newdataset[['GrLivArea','SalePrice']],'SalePrice') Output: Coefficients: [111.91917371] Mean squared error: 2827781279.81 Coefficient of determination: 0.08 5) Valutiamo i Modelli Arrivati a questo punto, dove esserci divertiti a scrivere codice e a rubare ai dati informazioni nascoste, arriva un momento molto importante: "Dobbiamo capire quanto il nostro modello è affidabile" Riportiamo qui sotto i dati che abbiamo calcolato. Come ci salta subito all'occhio il Random Forest Model è il modello più affidabile. Proprio come volevamo. Solitamente quando si valuta un modello esistono diversi tipi di metriche che è possibile utilizzare. Io solitamente consiglio di utilizzare sempre questi tre campi, perche secondo un mio parere ci danno una visione generale sulle capacità del modello. 6) Testiamo il modello Questo passaggio è fondamentale su vuoi capire a pieno quali sono i punti di "certezza" e "incertezza" del modello che hai creato. Nel nostro caso sarebbe inutile andare ad effettuare delle previsioni con i modelli che abbiamo creato, poichè, anche se "sembra" affidabile all'88% il nostro modello è stato allenato su un set molto ristretto di caratteristche e quindi non rispecchia nemmeno vagamente la realtà degli appartamenti Americani. Arrivati a questo punto il Tutorial è terminato. Ti consiglio di non fermarti qui ma di espandere il progetto fino a dove riesci, utilizzando tutte le variabile che ritieni fondamentali per stimare il prezzo di questi appartamenti. Per qualsiasi Problema o Errore Scrivilo qui nei commenti oppure fai una domanda nel forum. Il nostro Team di Esperti di AI è pronto ad aiutarti. Scarica Gratuitamente tutto il Progetto Per scaricare gratuitamente devi prima registrati/accede al portale. Scorri in fondo alla pagina per registrati o accedere Sostienici condividendo e commentando l'articolo, Grazie !
- Deep learnign e python : Object Recognition e Object Predict esempio pratico in 13 righe di codice
Prerequisiti : Se non sai perchè utilizzeremo python, clicca qui Se non hai ancora installato Python, clicca qui Se non sai come scaricare e gestire le librerie, clicca qui Se non sai cosa sia un Dataset, clicca qui Se non sai quali sono le migliori librerie per l'I.A. , clicca qui Introduzione Il rilevamento di oggetti è una tecnologia che rientra nel dominio più ampio della visione artificiale . Si occupa di identificare e tracciare oggetti presenti in immagini e video. Il rilevamento di oggetti ha molteplici applicazioni come il rilevamento dei volti, il rilevamento dei veicoli, il conteggio dei pedoni, le auto a guida autonoma, i sistemi di sicurezza, ecc. I due principali obiettivi del rilevamento di oggetti includono: Per identificare tutti gli oggetti presenti in un'immagine Filtra l'oggetto dell'attenzione In questo articolo vedrai come eseguire il rilevamento di oggetti in Python con l'aiuto della libreria ImageAI . Apprendimento approfondito per il rilevamento di oggetti Le tecniche di deep learning si sono dimostrate all'avanguardia per vari problemi di rilevamento di oggetti. Di seguito sono riportati alcuni degli approcci di deep learning comunemente utilizzati per il rilevamento di oggetti: ImageAI Rilevatori a colpo singolo YOLO (Guardi solo una volta) Reti neurali convoluzionali Nel resto di questo articolo, vedremo cos'è esattamente ImageAI e come usarlo per eseguire il rilevamento di oggetti. La libreria ImageAI ImageAI è una libreria Python creata per consentire agli sviluppatori di creare applicazioni e sistemi con capacità di apprendimento approfondito e di visione artificiale autonome utilizzando poche righe di codice diretto. ImageAI contiene un'implementazione Python di quasi tutti gli algoritmi di apprendimento profondo all'avanguardia come RetinaNet , YOLOv3 e TinyYOLOv3. ImageAI utilizza diverse API che funzionano offline: ha API di rilevamento di oggetti, rilevamento di video e rilevamento di oggetti che possono essere chiamate senza accesso a Internet. ImageAI utilizza un modello pre-addestrato e può essere facilmente personalizzato. La ObjectDetectionclasse della libreria ImageAI contiene funzioni per eseguire il rilevamento di oggetti su qualsiasi immagine o insieme di immagini, utilizzando modelli pre-addestrati. Con ImageAI, puoi rilevare e riconoscere 80 diversi tipi di oggetti comuni e quotidiani. Configurazione dell'ambiente di sviluppo In questa parte del tutorial, lavoreremo attraverso l'installazione di ImageAI. Per utilizzare ImageAI è necessario installare alcune dipendenze. Il primo passo è avere Python installato sul tuo computer. Se non lo hai installato, o non sai come scaricare e gestire le librerie vai ai prerequisiti Dopo aver installato Python sul tuo computer, installa le seguenti librerie usando pip: TensorFlow $ pip install tensorflow $ pip3 install tensorflow # per Python3 OpenCV $ pip install opencv-python $ pip3 install opencv-python # per Python3 Keras $ pip install keras $ pip3 install keras # per Python3 ImageAI $ pip install imageAI $ pip3 install imageAI # per Python3 Ora scarica il file del modello TinyYOLOv3 che contiene il modello di classificazione che verrà utilizzato per il rilevamento degli oggetti. Rilevamento di oggetti con ImageAI in 10 semplici step Vediamo ora come utilizzare effettivamente la libreria ImageAI. Spiegherò passo dopo passo come costruire il tuo primo modello di rilevamento di oggetti con ImageAI. Step 1 Il nostro primo compito qui è creare le cartelle necessarie. Per questo tutorial abbiamo bisogno delle seguenti cartelle: Rilevamento di oggetti : cartella principale modelli : memorizza il modello pre-addestrato input : memorizza il file immagine su cui si desidera eseguire il rilevamento degli oggetti output : memorizza il file immagine con gli oggetti rilevati Dopo aver creato le cartelle, la Directory principale dovrebbe contenere le seguenti sottocartelle: CartellaPrincipale ├── input ├── models └── output 3 directories, 0 files Step 2 Apri il tuo editor di testo preferito per scrivere codice Python e crea un nuovo file detector.py . Step 3 Importa la ObjectDetectionclasse dalla libreria ImageAI. from imageai.Detection import ObjectDetection Step 4 Ora che hai importato la libreria imageAI e la ObjectDetectionclasse, la prossima cosa è creare un'istanza della classe ObjectDetection, come mostrato qui: detector = ObjectDetection() Step 5 Specifichiamo il percorso dalla nostra immagine di input, immagine di output e modello. model_path = "./models/yolo-tiny.h5" input_path = "./input/test45.jpg" output_path = "./output/newimage.jpg" Step 6 Dopo aver istanziato la ObjectDetectionclasse, ora possiamo chiamare varie funzioni dalla classe. La classe contiene le seguenti funzioni di chiamare modelli pre-addestrati: setModelTypeAsRetinaNet(), setModelTypeAsYOLOv3(), e setModelTypeAsTinyYOLOv3(). Ai fini di questo tutorial, userò il TinyYOLOv3model pre-addestrato e quindi useremo la setModelTypeAsTinyYOLOv3() funzione per caricare il nostro modello. detector.setModelTypeAsTinyYOLOv3() Step 7 Successivamente, chiameremo la funzione setModelPath(). Questa funzione accetta una stringa che contiene il percorso del modello pre-addestrato: detector.setModelPath(model_path) Step 8 Questo passaggio chiama la funzione loadModel() . Carica il modello dal percorso specificato sopra utilizzando il setModelPath() metodo di classe. detector.loadModel() Step 9 Per rilevare gli oggetti nell'immagine, dobbiamo chiamare la detectObjectsFromImage funzione utilizzando il detector object che abbiamo creato nella sezione precedente. Questa funzione richiede due argomenti: input_imagee output_image_path. input_image è il percorso in cui si trova l'immagine che stiamo rilevando, mentre il output_image_path è il percorso per memorizzare l'immagine con gli oggetti rilevati. Questa funzione restituisce un dizionario che contiene i nomi e le probabilità percentuali di tutti gli oggetti rilevati nell'immagine. detection = detector.detectObjectsFromImage(input_image=input_path, output_image_path=output_path) Step 10 È possibile accedere agli elementi del dizionario attraversando ogni elemento nel dizionario. for eachItem in detection: print(eachItem["name"] , " : ", eachItem["percentage_probability"]) Codice completo per il rilevamento di oggetti Per scaricare il codice gratuitamente, registrati nel portale con Facebook, Google o con la tua email e sblocca l'area dedicata ai download dei progetti. Scorri in fondo alla pagina per Registrarti o Accedere se ancora non l'hai fatto. Clicca qui per accedere a l'area download progetti A.I. Nell'output è possibile vedere il nome di ogni oggetto rilevato insieme alla sua percentuale di probabilità come mostrato di seguito: Output car : 53.66367697715759 person : 75.88377594947815 person : 51.0115921497345 person : 84.292072057724 Immagine originale: L'immagine originale, ovvero "img.jpg", aveva questo aspetto: Immagine con rilevamento di oggetti: Dopo il rilevamento dell'oggetto, l'immagine risultante ha questo aspetto: Puoi vedere che ImageAI ha identificato con successo auto e persone nell'immagine. Conclusione Il rilevamento di oggetti è una delle attività di computervision più comuni. Questo articolo spiega come eseguire il rilevamento di oggetti in Python utilizzando la libreria ImageAI con l'aiuto di un esempio pratico di DeepLearning. Vuoi Scaricare il progetto Gratis ? Accedi o registrati al portale Clicca qui e scarica il progetto Grazie mille per la lettura, spero che il piccolo esempio ti abbia fatto capire la potenza di questa libreria abbinata alla semplicità di python. Scrivi qui nei commenti possibili applicazioni o estensioni di questo frammento di codice. Vuoi scaricare il codice completo Registrati e nel portale e clicca qui ! E' Gratis. Per eventuali problemi nel codice scrivi sul nostro Forum.














