top of page

Risultati Ricerca Intelligenza Artificiale Italia

331 risultati trovati per "ChatGPT business"

  • Manipolazione Dati con Python e Pandas

    Introduzione Python sta rapidamente diventando il linguaggio preferito nella scienza dei dati e per buone ragioni. Tra le sue librerie di calcolo scientifico, abbiamo trovato Pandas come la più utile per le operazioni di manipolazioni sui dati. Pandas, insieme a Scikit-learn, fornisce quasi l'intero stack necessario a un data scientist. Questo articolo si concentra su 10 modi per la manipolazione dei dati in Python. Abbiamo anche condiviso alcuni suggerimenti e trucchi che ti permetteranno di lavorare più velocemente . Per aiutarti a capire meglio, abbiamo preso un set di dati da esempio per eseguire queste operazioni e manipolazioni. Per ogni metodo, dei 10 troverai il codice python e sotto una finestra interattiva per provare il codice. Iniziamo Inizieremo importando il modulo Pandas e caricando il set di dati nell'ambiente Python come Pandas Dataframe: #importiamo le librerie necessarie import pandas as pd import numpy as np data = pd.read_csv("file dati prestiti.csv", index_col="Loan_ID") #incolla nell'editor qui sotto #sotto la riga di commento print(data) Manipolare Dataset con Python : Filtrare i dataset con pandas Cosa fare se si desidera filtrare i valori di una colonna in base alle condizioni di un altro insieme di colonne di un Pandas Dataframe? Ad esempio, vogliamo un elenco di tutte le donne che non sono laureate e che hanno ottenuto un prestito. L'indicizzazione booleana può aiutare qui. È possibile utilizzare il seguente codice: query = data.loc[(data["Gender"]=="Female") & (data["Education"]=="Not Graduate") & (data["Loan_Status"]=="Y"), ["Gender","Education","Loan_Status"]] print(query) Leggi di più sull'indicizzazione booleana nei panda qui: Selezione e indicizzazione dei panda Manipolare Dataset con Python : APPLY la funzione di pandas È una delle funzioni Pandas comunemente utilizzate per manipolare un dataframe panda e creare nuove variabili. La funzione Pandas Apply restituisce un valore dopo aver passato ogni riga/colonna di un frame di dati con qualche funzione. La funzione può essere predefinita o definita dall'utente. Ad esempio, qui può essere utilizzato per trovare i valori #mancanti in ogni riga e colonna. #Crea una nuova funzione: def num_missing(x): return sum(x.isnull()) #Applicazione per colonna: print("Valori mancanti per colonna:") print(data.apply(num_missing, axis=0)) #asse=0 definisce quella funzione deve essere applicata su ciascuna colonna #Applicazione per riga: print("\nValori mancanti per riga:") print (data.apply(num_missing, axis=1).head()) #asse=1 definisce quella funzione da applicare su ogni riga Manipolare Dataset con Python : Immissione di valori mancanti usando Panda 'fillna()' lo fa in una volta sola. Viene utilizzato per aggiornare i valori mancanti con la media/modalità/mediana complessiva della colonna. Assumiamo le colonne 'Sesso', 'Coniugato' e 'Self_Employed' con le rispettive modalità. #Per prima cosa importiamo la funzione scipy per determinare la modalità from scipy.stats import mode print(mode(data['Gender'])) Ciò restituisce sia la modalità che il conteggio. Ricorda che la modalità può essere un array in quanto possono esserci più valori con alta frequenza. Prenderemo il primo di default usando sempre: mode(data['Gender']).mode[0] Ora possiamo riempire i valori mancanti nei dati Pandas Dataframe e verificare usando la tecnica n. 2. #Importa i valori: data['Gender'].fillna(mode(data['Gender']).mode[0], inplace=True) data['Married'].fillna(mode(data['Married']).mode[0], inplace=True) data['Self_Employed'].fillna(mode(data['Self_Employed']).mode[0], inplace=True) #Ora controlla di nuovo i valori #mancanti per confermare: print(data.apply(num_missing, axis=0)) Pertanto, viene confermato che i valori mancanti nel dataframe di Pandas vengono imputati. Si noti che questa è la forma più primitiva di imputazione. Altre tecniche sofisticate includono la modellazione dei valori mancanti, utilizzando medie raggruppate (media/modalità/mediana). Tratteremo quella parte nei prossimi articoli. Maggiori informazioni sull'imputazione dei valori mancanti nel dataframe Pandas qui: Riferimento Pandas (fillna) Manipolare Dataset con Python : Tabella pivot in Pandas I panda possono essere utilizzati per creare tabelle pivot in stile MS Excel. Ad esempio, in questo caso, una colonna chiave è "LoanAmount" che ha valori mancanti. Possiamo attribuirlo utilizzando la quantità media di ciascun gruppo "Sesso", "Coniugato" e "Self_Employed". Il "LoanAmount" medio di ciascun gruppo nel dataframe Pandas può essere determinato come: #Determina tabella pivot impute_grps = data.pivot_table(values=["LoanAmount"], index=["Gender","Married","Self_Employed"], aggfunc=np.mean) print(impute_grps) Maggiori informazioni sulla tabella pivot Pandas qui: Riferimento Pandas (tabella pivot) Manipolare Dataset con Python : Indicizzazione multipla in Pandas Dataframe Se noti l'output del passaggio n. 3, ha una strana proprietà. Ogni indice Pandas è composto da una combinazione di 3 valori. Questo è chiamato Multi-indicizzazione. Aiuta a eseguire operazioni molto velocemente. Continuando l'esempio dal n. 3, abbiamo i valori per ogni gruppo ma non sono stati imputati. Questo può essere fatto usando le varie tecniche apprese dai panda fino ad ora. #itera solo le righe con ImportoLoanAmount mancante for i,row in data.loc[data['LoanAmount'].isnull(),:].iterrows(): ind = tuple([row['Gender'],row['Married'],row['Self_Employed']]) data.loc[i,'LoanAmount'] = impute_grps.loc[ind].values[0] #Ora controlla di nuovo i #valori mancanti per confermare: print(data.apply( num_mancante, asse=0)) Nota: Il multi-indice richiede la tupla per definire gruppi di indici nell'istruzione panda loc. Questa è una tupla usata in funzione. Il suffisso .values[0] è richiesto perché, per impostazione predefinita, viene restituito un elemento series che ha un indice non corrispondente a quello del dataframe pandas. In questo caso, un'assegnazione diretta dà un errore. Manipolare Dataset con Python : Tabella incrociata con Pandas Questa funzione viene utilizzata per ottenere una "sensazione" (visualizzazione) iniziale dei dati. Qui, possiamo convalidare alcune ipotesi di base. Ad esempio, in questo caso, si prevede che "Credit_History" influisca in modo significativo sullo stato del prestito. Questo può essere testato utilizzando la tabella incrociata come mostrato di seguito: print(pd.crosstab(data["Credit_History"],data["Loan_Status"],margins=True)) Questi sono numeri assoluti. Ma le percentuali possono essere più intuitive nel fare alcune rapide intuizioni. Possiamo farlo usando la funzione di applicazione di Pandas: def percConvert(ser): return ser/float(ser[-1]) pd.crosstab(data["Credit_History"],data["Loan_Status"],margins=True).apply(percConvert, axis=1) Ora, è evidente che le persone con una storia creditizia hanno possibilità molto più elevate di ottenere un prestito poiché l'80% delle persone con una storia di credito ha ottenuto un prestito rispetto al solo 9% senza storia di credito. Ma non è questo. Racconta una storia interessante. Dal momento che so che avere una storia creditizia è estremamente importante, cosa succede se prevedo che lo stato del prestito sarà Y per quelli con storia creditizia e N altrimenti. Sorprendentemente, avremo ragione 82+378=460 volte su 614, che è un enorme 75%! Non ti biasimerò se ti stai chiedendo perché diavolo abbiamo bisogno di modelli statistici. Ma fidati di me, aumentare la precisione anche dello 0,001% oltre questo segno è un compito impegnativo. Nota: il 75% è sul train. Il set di test sarà leggermente diverso ma vicino. Inoltre, spero che questo dia un'idea del perché anche un aumento dello 0,05% della precisione può comportare un salto di 500 gradi nella classifica di Kaggle. Manipolare Dataset con Python : Unire DataFrame con Pandas L'unione dei dataframe di Panda diventa essenziale quando abbiamo informazioni provenienti da diverse fonti da raccogliere. Si consideri un caso ipotetico in cui le tariffe immobiliari medie (INR per mq) sono disponibili per diversi tipi di proprietà. Definiamo un dataframe Pandas come: prop_rates = pd.DataFrame([1000, 5000, 12000], index=['Rural','Semiurban','Urban'],columns=['rates']) print(prop_rates) Ora possiamo unire queste informazioni con il dataframe Pandas originale come: data_merged = data.merge(right=prop_rates, how='inner',left_on='Property_Area',right_index=True, sort=False) print(data_merged.pivot_table(values='Credit_History',index=['Property_Area','rates'], aggfunc=len)) La tabella pivot convalida l'operazione di unione riuscita. Si noti che l'argomento "valori" è irrilevante qui perché stiamo semplicemente contando i valori. Leggi di più: Riferimento Pandas (unisci) Manipolare Dataset con Python : Ordinamento dei DataFrame di Pandas I panda consentono un facile ordinamento basato su più colonne. Questo può essere fatto come: data_sorted = data.sort_values(['ApplicantIncome','CoapplicantIncome'], ascending=False) print(data_sorted[['ApplicantIncome','CoapplicantIncome']].head(10)) Nota: la funzione "ordina" di Panda è ora deprecata. Dovremmo invece usare "sort_values". Altro: Riferimento Pandas (sort_values) Manipolare Dataset con Python : Funzione di taglio per il binning A volte i valori numerici hanno più senso se raggruppati insieme. Ad esempio, se stiamo cercando di modellare il traffico (#auto su strada) con l'ora del giorno (minuti). Il minuto esatto di un'ora potrebbe non essere rilevante per la previsione del traffico rispetto al periodo effettivo della giornata come "Mattino", "Pomeriggio", "Sera", "Notte", "Late Night". Modellare il traffico in questo modo sarà più intuitivo ed eviterà l'overfitting. Qui definiamo una semplice funzione che può essere riutilizzata per il binning di qualsiasi variabile abbastanza facilmente. #Binning: def binning(col, cut_points, labels=None): #Definisci valori min e max: minval = col.min() maxval = col.max() #crea una lista aggiungendo min e max a cut_points break_points = [minval ] + cut_points + [maxval] #se non vengono fornite etichette, usa le etichette predefinite 0 ... (n-1) if not labels: labels = range(len(cut_points)+1) #Binning usando la funzione di taglio di panda colBin = pd.cut(col,bins=break_points,labels=labels,include_lowest=True) return colBin #Binning age: cut_points = [90,140,190] labels = ["low","medium","high","very high"] data["LoanAmount_Bin"] = binning(data["LoanAmount"], cut_points, labels) print (pd.value_counts(data["LoanAmount_Bin"], sort=False)) Per saperne di più sulla funzione di taglio Pandas qui: Riferimento Pandas (taglio) Manipolare Dataset con Python : Codifica dei dati categorici utilizzando Pandas Spesso troviamo un caso in cui dobbiamo modificare le categorie di una variabile nominale. Ciò può essere dovuto a vari motivi: Alcuni algoritmi (come la regressione logistica) richiedono che tutti gli input siano numerici. Quindi le variabili nominali sono per lo più codificate come 0, 1….(n-1) A volte una categoria può essere rappresentata in 2 modi. Ad esempio, la temperatura potrebbe essere registrata come “Alta”, “Media”, “Bassa”, “H”, “bassa”. Qui, sia "Alto" che "H" si riferiscono alla stessa categoria. Allo stesso modo, in "Basso" e "basso" c'è solo una differenza di maiuscolo. Ma Python li leggerebbe come livelli diversi. Alcune categorie potrebbero avere frequenze molto basse ed è generalmente una buona idea combinarle. Qui ho definito una funzione generica che accetta input come dizionario e codifica i valori usando la funzione "sostituisci" in Pandas. #Definisci una funzione generica usando Pandas sostituisci la funzione def coding(col, codeDict): colCoded = pd.Series(col, copy=True) for key, value in codeDict.items(): colCoded.replace(key, value, inplace=True) return colCoded # LoanStatus come Y=1, N=0: print 'Prima:' print pd.value_counts(data["Loan_Status"]) data["Loan_Status_Coded"] = coding(data["Loan_Status"], {'N':0,'Y':1}) print ('\nDopo la codifica:' ) print (pd.value_counts(data["Loan_Status_Coded"])) Maggiori informazioni sulla funzione di sostituzione di Panda qui: Riferimento Panda (sostituire) Note finali In questo articolo, abbiamo trattato varie funzioni di Pandas che possono semplificarci la vita mentre eseguiamo l'esplorazione dei dati e l'ingegneria delle funzionalità. Inoltre, abbiamo definito alcune funzioni generiche che possono essere riutilizzate per raggiungere obiettivi simili su diversi dataset. Grazie per la lettura condividi l'articolo

  • Il tuo Primo Programma di Machine Learning con Python e Google Colab

    Indice Perchè è importante saper creare un programma di Machine Learning ? Perchè hai difficoltà a seguire i tutorial degli altri ? Cosa Utilizzeremo per creare un programma con solo il browser? Passaggio 1. Creazione di un taccuino python con Google Colab Passaggio 2. Importare le librerie su Google colab Passaggio 3. Come importare Dataset su Google Colab Passaggio 4. Addestrare un Modello di Machine Learning su Google Colab Passaggio 5. Fare previsioni con Python utilizzando Google Colab Conclusioni Perchè è importante saper creare un programma di Machine Learning ? L'apprendimento automatico (ML) è di tendenza e ogni azienda vuole sfruttare il machine learning per aiutarla a migliorare i propri prodotti o servizi. Pertanto, abbiamo osservato una crescente domanda di ingegneri ML e tale richiesta ha attirato l'attenzione di molte persone. Tuttavia, il machine learning può sembrare scoraggiante per molti, specialmente per coloro che hanno poca esperienza di programmazione o di lavoro relativa ai dati. Perchè hai difficoltà a seguire i tutorial degli altri ? Una ragione probabile è che ci vuole una grande quantità di sforzi per impostare il computer, permettendo loro di sviluppare tutti i modelli ML. Ci Pensiamo noi...Ti faremo creare il tuo primo script di machine learning con python, utilizzando solo un browser Cosa Utilizzeremo ? In questo articolo vorrei presentare Google Colab, uno strumento gratuito (con opzioni di aggiornamento a pagamento, però) per l'apprendimento e la creazione di modelli ML. Ancora più importante, come scoprirai, non ha alcuna configurazione per te - è pronto per l'uso ora - con l'unico requisito di avere un account Google. Se non ne hai uno, registrati in modo da poter seguire il tutorial. Suppongo che tu non sappia molto di ML, ma sei molto entusiasta di apprendere il ML. Non importa quanto Python conosci. Spiegherò i passaggi principali usando il più possibile termini comprensibili anche per chi è alle prime armi. Senza ulteriori indugi, iniziamo. Se vuoi vedere il codice sorgente, puoi accedere al Notebook passando nell'area progetti . Troverai il Link alla fine dell articolo. Passaggio 1. Creazione di un taccuino in Colab In Colab, lavori con i taccuini (*.ipynb), proprio come lavori con i documenti (*.docx) in Microsoft Word. Quindi, il primo passo per usare Colab è creare un nuovo Notebook andando su: https://colab.research.google.com/ . Dopo aver fatto clic sul pulsante "New notebook", vedrai che Colab crea un nuovo taccuino con un nome predefinito di Untitled1.ipynb. Per il bene dell'attuale tutorial, chiamiamolo first_ml_model.ipynb o come vuoi. D'ora in poi lavoreremo su questo file. Passaggio 2. Importare le librerie su Google colab Quando creiamo il nostro modello, abbiamo bisogno di librerie di codici sviluppate da sviluppatori esperti di machine learning. In sostanza, queste librerie fungono da set di strumenti fornendo funzionalità predefinite per l'elaborazione dei dati e la costruzione del modello. In questo tutorial, utilizzeremo principalmente le seguenti librerie. scikit-learn : una libreria ML che consiste in una varietà di funzioni di elaborazione dati e algoritmi ML (ad es. regressione, classificazione e clustering). Questa libreria è anche conosciuta come sklearn. pandas : una libreria di data science specializzata principalmente nella pre-elaborazione di dati simili a fogli di calcolo prima di creare modelli ML. Nel taccuino di Google Colab, ogni unità di lavoro è nota come cella e usiamo una serie di celle per svolgere i nostri lavori di machine learning. In ogni cella, di solito svolgiamo un compito specifico. Per aggiungere una cella, fai semplicemente clic + Code su in alto, come mostrato di seguito. Puoi aggiungere le tue note sul codice facendo clic su + Text. Con il codice creato, eseguendo la cella seguente, puoi importare le librerie necessarie per il presente tutorial. Una piccola Nota, se stai cercando di configurare un computer per il ML, devi installare tutte queste librerie oltre alla configurazione di Python. Mentre su Google Colab per creare il tuo primo programma di Machine learning avrai solo bisogno del nostro semplice tutorial. Passaggio 3. Come importare Dataset su Colab Per l'attuale tutorial, utilizzeremo il set di dati sulla qualità del vino rosso. Puoi trovare maggiori informazioni su questo set di dati su kaggle.com , un popolare sito Web di data science e ML che presenta una serie di concorsi. Puoi anche trovare le informazioni del set di dati su UCI , che è il principale repository di dati ML. Tranquillo il Dataset sarà incluso nella cartella file del relativo progetto Il dataset del vino è spesso usato come esempio per mostrare i modelli ML e, quindi, è comodamente disponibile nella libreria sklearn. Tieni presente che il set di dati in sklearn è stato modificato per servire meglio come set di dati giocattolo per l'addestramento e l'apprendimento ML. I dati sono riportati di seguito. Lo screenshot sopra mostra le caratteristiche dei dati. In ML, utilizziamo le " caratteristiche " per studiare quali fattori possono essere importanti per la previsione corretta. Come puoi vedere, ci sono 12 funzioni disponibili e sono potenzialmente importanti per la qualità del vino rosso, come l'alcol e l'acido malico. Un ML specifico è preoccupato per la classificazione. Ogni record di dati ha un'etichetta che mostra la sua classe e le classi di tutti i record sono conosciute come "destinazione" del set di dati. Nel set di dati del vino rosso, ci sono tre classi per le etichette e possiamo controllare le etichette, come mostrato di seguito: Tieni presente che in una tipica pipeline, di solito è necessario dedicare un sacco di tempo alla preparazione del set di dati. Alcune preparazioni comuni includono l'identificazione e la rimozione/ricodifica di valori anomali, la gestione dei dati mancanti, la ricodifica one-hot (necessaria per alcuni modelli), la riduzione della dimensionalità, la selezione delle funzionalità, il ridimensionamento e molti altri. Poiché il set di dati è stato ripulito come un set di dati giocattolo in sklearn , non dobbiamo preoccuparci di questi preparativi. Passaggio 4. Addestrare un Modello di Machine Learning su Google Colab Il passaggio successivo consiste nell'addestrare il modello ML. Forse ti starai chiedendo qual è il punto di addestrare un modello ML. Bene, per diversi casi d'uso, ci sono scopi diversi. Ma in generale, lo scopo dell'addestramento di un modello ML è più o meno quello di fare previsioni su cose che non hanno mai visto. Il modello riguarda come fare buone previsioni. Il modo per creare un modello si chiama training, utilizzando i dati esistenti per identificare un modo corretto per fare previsioni. Esistono molti modi diversi per costruire un modello, come K-nearest neighbors, SVC, random forest, e gradient boosting, solo per citarne alcuni. Ai fini del presente tutorial che mostra come creare un modello ML utilizzando Google Colab, utilizziamo un modello prontamente disponibile in sklearn: il classificatore di foreste casuali. Una cosa da notare è che abbiamo un solo set di dati. Per testare le prestazioni del modello, divideremo il set di dati in due parti, una per l'addestramento e l'altra per il test. Possiamo semplicemente usare il train_test_split , come mostrato di seguito. Il set di dati di addestramento ha 142 record, mentre il set di dati di test ha 36 record, approssimativamente in un rapporto di 4:1 (si noti che test_size=0.2 per i test viene utilizzato il 20% con arrotondamenti se necessario del set di dati originale). La cosa bella di sklearn è che fa un sacco di lavoro pesante per noi rendendo molti classificatori preconfigurati in modo tale da poterli usare con poche righe di codice. Nello screenshot qui sotto, creiamo prima un classificatore forestale casuale. In sostanza, crea il framework in cui inserire i nostri dati per costruire il modello. Utilizzando classifier.fit, stiamo addestrando il modello per generare i parametri del modello, in modo tale che il modello possa essere utilizzato per previsioni future. Passaggio 5. Fare previsioni con Python utilizzando Google Colab Con il modello addestrato di sklearn, possiamo testare le prestazioni del modello sul set di dati di test che abbiamo creato in precedenza. Come mostrato di seguito, abbiamo ottenuto una previsione di accuratezza del 97,2%. Tieni presente che raggiungere un livello elevato come questo in un set di dati giocattolo non è atipico, ma è considerato molto alto nei progetti reali. Se vuoi dare un'occhiata più da vicino alla previsione del nostro modello, questo è il link al progetto. All'interno troverai una cartella.zip contenente il file .ipynb per aprirlo con Colab, il file python per farlo girare in locale, il set di dati in formato csv e il pdf del progetto. Conclusioni creazione primo programma di machine learning con Python e Google Colab In questo articolo, abbiamo utilizzato Google Colab come editor di codice per mostrarti come creare un modello ML per fare previsioni su un set di dati giocattolo. Tuttavia, ti mostra che Google Colab è uno strumento facile da usare che richiede configurazioni minime per iniziare il tuo percorso di apprendimento del machine learning. Quando ti senti a tuo agio con le terminologie e i concetti relativi a Google Colab, Python e ML. Puoi esplorare altri IDE Python, come PyCharm, per un lavoro ML più avanzato con una migliore esperienza di codifica.

  • Machine Learning Esempi di Utilizzo nella Vita di tutti i Giorni - Esempi Pratici Machine Learning

    Il machine learning è un'innovazione moderna che ha aiutato l'uomo a migliorare non solo molti processi industriali e professionali, ma anche a far progredire la vita di tutti i giorni. Ma cos'è l'apprendimento automatico? È un sottoinsieme dell'intelligenza artificiale, che si concentra sull'utilizzo di tecniche statistiche per costruire sistemi informatici intelligenti al fine di apprendere dai database a sua disposizione. Attualmente, l'apprendimento automatico è stato utilizzato in più campi e settori. Ad esempio, diagnosi medica, elaborazione di immagini, previsione, classificazione, associazione di apprendimento, regressione, ecc. I sistemi intelligenti basati su algoritmi di apprendimento automatico hanno la capacità di apprendere dall'esperienza passata o dai dati storici. Le applicazioni di machine learning forniscono risultati sulla base dell'esperienza passata. In questo articolo, discuteremo 10 esempi di vita reale di come l'apprendimento automatico sta aiutando a creare una tecnologia migliore per alimentare le idee di oggi. Esempio di Machine Learning 1) Riconoscimento delle immagini Il riconoscimento delle immagini è uno degli usi più comuni del machine learning. Esistono molte situazioni in cui è possibile classificare l'oggetto come immagine digitale . Ad esempio, nel caso di un'immagine in bianco e nero, l'intensità di ciascun pixel viene utilizzata come una delle misurazioni. Nelle immagini a colori, ogni pixel fornisce 3 misurazioni di intensità in tre diversi colori: rosso, verde e blu (RGB). L'apprendimento automatico può essere utilizzato anche per il rilevamento dei volti in un'immagine . C'è una categoria separata per ogni persona in un database di più persone. L'apprendimento automatico viene utilizzato anche per il riconoscimento dei caratteri per distinguere le lettere scritte a mano e quelle stampate. Possiamo segmentare un pezzo di scrittura in immagini più piccole, ciascuna contenente un singolo carattere. Esempio di Machine Learning 2) Riconoscimento vocale Il riconoscimento vocale è la traduzione delle parole pronunciate nel testo. È anche noto come riconoscimento vocale del computer o riconoscimento vocale automatico. Qui, un'applicazione software può riconoscere le parole pronunciate in una clip o file audio e quindi convertire l'audio in un file di testo. La misura in questa applicazione può essere un insieme di numeri che rappresentano il segnale vocale. Possiamo anche segmentare il segnale vocale per intensità in diverse bande tempo-frequenza. Il riconoscimento vocale viene utilizzato in applicazioni come l'interfaccia utente vocale, le ricerche vocali e altro ancora. Le interfacce utente vocali includono la composizione vocale, l'instradamento delle chiamate e il controllo dell'appliance. Può essere utilizzato anche un semplice inserimento dati e la preparazione di documenti strutturati. Esempio di Machine Learning 3) Diagnosi medica L'apprendimento automatico può essere utilizzato nelle tecniche e negli strumenti che possono aiutare nella diagnosi delle malattie . Viene utilizzato per l'analisi dei parametri clinici e la loro combinazione per la previsione di esempio della prognosi della progressione della malattia per l'estrazione di conoscenze mediche per la ricerca dell'esito, per la pianificazione della terapia e il monitoraggio del paziente. Queste sono le implementazioni di successo dei metodi di apprendimento automatico. Può aiutare nell'integrazione di sistemi informatici nel settore sanitario. Esempio di Machine Learning 4) Arbitraggio statistico In finanza, l'arbitraggio si riferisce alle strategie di trading automatizzato che sono a breve termine e coinvolgono un gran numero di titoli. In queste strategie, l'utente si concentra sull'implementazione dell'algoritmo di negoziazione per un insieme di titoli sulla base di quantità come le correlazioni storiche e le variabili economiche generali. I metodi di apprendimento automatico vengono applicati per ottenere una strategia di arbitraggio dell'indice. Applichiamo la regressione lineare e la Support Vector Machine ai prezzi di un flusso di azioni. Esempio di Machine Learning 5) Associazioni di apprendimento Le associazioni di apprendimento sono il processo di sviluppo di intuizioni sulle varie associazioni tra i prodotti. Un buon esempio è come i prodotti non correlati possono essere associati tra loro. Una delle applicazioni del machine learning è studiare le associazioni tra i prodotti che le persone acquistano. Se una persona acquista un prodotto, gli verranno mostrati prodotti simili perché c'è una relazione tra i due prodotti. Quando nuovi prodotti vengono lanciati sul mercato, vengono associati a quelli vecchi per aumentarne le vendite. Esempio di Machine Learning 6) Classificazione Una classificazione è un processo di collocamento di ogni individuo sotto studio in molte classi. La classificazione aiuta ad analizzare le misurazioni di un oggetto per identificare la categoria a cui appartiene quell'oggetto. Per stabilire una relazione efficiente, gli analisti utilizzano i dati. Ad esempio, prima che una banca decida di erogare prestiti, valuta i clienti sulla loro capacità di pagare i prestiti. Considerando fattori come i guadagni, i risparmi e la storia finanziaria del cliente, possiamo farlo. Queste informazioni sono tratte dai dati passati sul prestito. Esempio di Machine Learning 7) Predizione L'apprendimento automatico può essere utilizzato anche nei sistemi di previsione. Considerando l'esempio del prestito, per calcolare la probabilità di un guasto, il sistema dovrà classificare i dati disponibili in gruppi. È definito da un insieme di regole prescritte dagli analisti. Una volta effettuata la classificazione, possiamo calcolare la probabilità del guasto. Questi calcoli possono essere eseguiti in tutti i settori per vari scopi. Fare previsioni è una delle migliori applicazioni di machine learning. Esempio di Machine Learning 8) Estrazione L'estrazione di informazioni è una delle migliori applicazioni del machine learning . È il processo di estrazione di informazioni strutturate dai dati non strutturati. Ad esempio, le pagine Web, gli articoli, i blog, i rapporti aziendali e le e-mail. Il database relazionale mantiene l'output prodotto dall'estrazione delle informazioni. Il processo di estrazione prende un insieme di documenti come input ed emette i dati strutturati. Esempio di Machine Learning 9) Regressione Possiamo anche implementare l'apprendimento automatico anche nella regressione. Nella regressione, possiamo utilizzare il principio dell'apprendimento automatico per ottimizzare i parametri. Può anche essere usato per diminuire l'errore di approssimazione e calcolare il risultato più vicino possibile. Possiamo anche utilizzare l'apprendimento automatico per l'ottimizzazione della funzione. Possiamo anche scegliere di modificare gli input per ottenere il risultato più vicino possibile. Esempio di Machine Learning 10) Servizi finanziari L'apprendimento automatico ha un grande potenziale nel settore finanziario e bancario . È la forza trainante della popolarità dei servizi finanziari. L'apprendimento automatico può aiutare le banche e gli istituti finanziari a prendere decisioni più intelligenti. L'apprendimento automatico può aiutare i servizi finanziari a individuare la chiusura di un conto prima che si verifichi. Può anche monitorare il modello di spesa dei clienti. L'apprendimento automatico può anche eseguire l'analisi di mercato. Le macchine intelligenti possono essere addestrate per monitorare i modelli di spesa. Gli algoritmi possono identificare facilmente le tende e possono reagire in tempo reale. Conclusione In poche parole, possiamo dire che l'apprendimento automatico è un'incredibile svolta nel campo dell'intelligenza artificiale. E mentre l'apprendimento automatico ha alcune implicazioni spaventose, queste applicazioni di apprendimento automatico sono uno dei modi attraverso i quali la tecnologia può migliorare le nostre vite.

  • Comandi Git per data scientist

    Scopri i comandi Git essenziali per il controllo delle versioni e la collaborazione a progetti di data science. Storicamente, la maggior parte dei data scientist non è a conoscenza delle pratiche e degli strumenti di sviluppo software come i sistemi di controllo delle versioni. Ma questo sta cambiando, i progetti di scienza dei dati stanno adottando le migliori pratiche dell'ingegneria del software e Git è diventato uno strumento essenziale per il controllo delle versioni di file e dati. I moderni data team lo usano per collaborare a progetti di codebase e risolvere i conflitti più velocemente. Che cos'è il controllo della versione? Il software di controllo della versione ti consente di salvare il tuo lavoro mentre procedi, così puoi tornare indietro nel tempo e riprendere da dove eri rimasto. Il software di controllo della versione più comunemente usato è Git. Cos'è Git? Git è un versatile sistema di controllo della versione utilizzato nello sviluppo di software. Viene utilizzato per gestire e tenere traccia delle modifiche a file e attività. Git è un successore del sistema di controllo del codice sorgente (SCCS) degli sviluppatori. Git utilizza un sistema di controllo della versione distribuito che consente a più sviluppatori di lavorare sullo stesso progetto contemporaneamente. È un buon strumento da usare insieme ad altri sistemi di controllo della versione come Subversion. Cos'è un Comando Git ? Git è un popolare sistema di controllo delle versioni che aiuta a gestire le modifiche ai documenti in un ambiente di lavoro collaborativo. Se non conosci il controllo della versione, ti starai chiedendo come usarlo. Se sei già un data scientist e non sai come usare Git, ti starai chiedendo come può aiutare il tuo flusso di lavoro. Ad ogni modo, troverai utile questo elenco di comandi Git. In questo post, impareremo 14 comandi Git essenziali che ti aiuteranno a inizializzare un progetto, creare e unire rami, seguire la versione dei file, sincronizzarlo con un server remoto e monitorare le modifiche. Nota: assicurati di aver installato correttamente Git dal sito ufficiale . Comandi Git per data scientist 1. Inizializzazione Puoi inizializzare il sistema di controllo della versione Git nella directory corrente digitando: git init Oppure puoi inizializzare Git in una directory specifica. git init Comandi Git per data scientist 2. Clona Il comando clone copierà tutti i file di progetto da un server remoto alla macchina locale. Aggiungerà anche un nome remoto come `origine` per sincronizzare i file con il server remoto. Git clone richiede un collegamento HTTPS e un collegamento SSH per la connessione sicura. git clone Comandi Git per data scientist 3. Remote È possibile connettersi a uno o più server remoti aggiungendo il nome del remoto e l'indirizzo HTTPS/SSH. git remote add Nota: la clonazione di un repository da GitHub o qualsiasi server remoto aggiunge automaticamente remote come `origine`. Comandi Git per data scientist 4. Crea Ramo I rami sono il modo migliore per lavorare su una nuova funzionalità o eseguire il debug del codice. Ti permette di lavorare in isolamento senza disturbare il ramo `main`. Crea un nuovo ramo usando il comando checkout con il tag `-b` e il nome del ramo. git checkout -b Oppure usa switch con il tag `-c` e il nome del ramo git switch -c O semplicemente usa il comando branch git branch Comandi Git per data scientist 5. Cambiare ramo Per passare da un ramo corrente a un altro ramo, è possibile utilizzare il comando checkout o switch seguito dal nome del ramo. git checkout git switch Comandi Git per data scientist 6. Pull Per sincronizzare le modifiche con un server remoto, è necessario prima eseguire il pull delle modifiche dal repository remoto al repository locale utilizzando il comando pull . Ciò è necessario quando vengono apportate modifiche in un repository remoto. git pull Puoi aggiungere un nome remoto seguito da un nome di ramo per estrarre un singolo ramo. git pull Per impostazione predefinita, il comando pull recupera le modifiche e le unisce al ramo corrente. Per rebase, invece di unire, puoi aggiungere il flag `--rebase` prima del nome e del ramo remoti. git pull --rebase origin master Comandi Git per data scientist 7. Aggiungi Usa il comando aggiungi per aggiungere file nell'area di gestione temporanea. Richiede il nome del file o l'elenco dei nomi dei file. git add Puoi anche aggiungere tutti i file usando il flag `.` o `-A`. git add . Comandi Git per data scientist 8. Commit Dopo aver aggiunto i file all'area di staging, puoi creare una versione utilizzando il comando commit . Il comando commit richiede il titolo del commit usando il flag `-m`. Se hai apportato più modifiche e vuoi elencarle tutte, aggiungile alla descrizione usando un altro flag `-m`. git commit -m "Titolo" -m "Descrizione" Nota: assicurati di aver configurato il nome utente e l'e -mail prima di confermare le modifiche. git config --global user.name git config --global user.email Comandi Git per data scientist 9. Push Per sincronizzare le modifiche locali su server remoti utilizzando il comando push . Puoi semplicemente digitare `git push` per inviare le modifiche al repository remoto. Per eseguire il push delle modifiche su uno specifico server remoto e succursale, utilizzare il comando seguente. git push Comandi Git per data scientist 10. Annulla commit Git revert annulla le modifiche a un commit specifico e lo aggiunge come nuovo commit, mantenendo intatto il registro. Per ripristinare, devi fornire un hash di un commit specifico. git revert Puoi anche annullare le modifiche usando il comando reset . Reimposta le modifiche su un commit specifico, scartando tutti i commit effettuati dopo. git reset Nota: l'utilizzo del comando reset è sconsigliato in quanto modifica la cronologia del registro git Comandi Git per data scientist 11. Unione Il comando di unione unirà semplicemente le modifiche del ramo specifico nel ramo corrente. Il comando richiede un nome di ramo. git merge Questo comando è molto utile quando si lavora con più rami e si desidera unire le modifiche al ramo principale. Comandi Git per data scientist 12. Registro Per controllare la cronologia completa dei commit precedenti, puoi utilizzare il comando log. Per mostrare i log più recenti, puoi aggiungere `-` seguito dal numero e ti mostrerà un numero limitato di cronologia dei commit recenti. Ad esempio, limita i log a 5: git log -5 Puoi anche controllare i commit effettuati da autori specifici. git log --author=”” Nota: git log ha più flag per filtrare tipi specifici di commit. Consulta la documentazione completa . Comandi Git per data scientist 13. Differenza L'uso del comando diff visualizzerà il confronto tra le modifiche non salvate con il commit corrente. git diff Per confrontare due diversi commit, utilizzare: git diff E per confrontare due rami, usa: git diff Comandi Git per data scientist 14. Stato Lo stato del comando mostra lo stato corrente della directory di lavoro. Include informazioni sulle modifiche di cui eseguire il commit, i percorsi non uniti, le modifiche non organizzate per il commit e l'elenco dei file non tracciati. git status Conclusione sui miliori comandi Git per data scientist Speriamo che il nostro articolo sui comandi Git essenziali per i data scientist ti sia piaciuto. L'apprendimento di queste competenze vitali farà un'enorme differenza nel tuo lavoro e nella tua carriera come professionista della scienza dei dati. Naturalmente, sappiamo che non tutti i data scientist hanno il tempo o la voglia di imparare questi comandi, quindi abbiamo fornito una serie di tutorial facili da seguire che forniscono una pratica pratica nell'uso di Git. Grazie per aver letto, siamo sempre entusiasti quando uno dei nostri post è in grado di fornire informazioni utili per i professionisti della scienza dei dati.

  • Deep Learning Definizioni Chiave

    Godendo di un'impennata nella ricerca e nell'industria, dovuta principalmente ai suoi incredibili successi in diverse aree, il deep learning è il processo di applicazione di tecnologie di reti neurali profonde, ovvero architetture di reti neurali con più livelli nascosti, per risolvere i problemi. Il deep learning è un processo che utilizza architetture di reti neurali profonde. Il deep learning ha accumulato un'impressionante collezione di risultati negli ultimi anni. Alla luce di ciò, è importante tenere a mente alcune cose, almeno secondo noi: Il deep learning non è è una soluzione adatta a ogni problema disponibile Non è il leggendario algoritmo master : il deep learning non sostituirà tutti gli altri algoritmi di apprendimento automatico e le tecniche di scienza dei dati o, per lo meno, non lo è ancora stato dimostrato È necessario moderare le aspettative : mentre recentemente sono stati fatti grandi passi avanti in tutti i tipi di problemi di classificazione, in particolare la visione artificiale e l'elaborazione del linguaggio naturale, così come l'apprendimento per rinforzo e altre aree, il deep learning contemporaneo non si adatta al lavoro su problemi molto complessi come "risolvere la pace nel mondo" Deep learning e intelligenza artificiale non sono sinonimi Il deep learning può fornire moltissimo alla scienza dei dati sotto forma di processi e strumenti aggiuntivi per aiutare a risolvere i problemi e, se osservato in questa luce, il deep learning è un'aggiunta molto preziosa al panorama della scienza dei dati Quindi, con questo, diamo un'occhiata ad una terminologia relativa all'apprendimento profondo, concentrandoci su definizioni concise e senza fronzoli. Deep Learning Definizioni Chiave 1. Apprendimento profondo Come definito sopra, il deep learning è il processo di applicazione delle tecnologie di rete neurale profonda per risolvere i problemi. Le reti neurali profonde sono reti neurali con un livello nascosto (vedi sotto). Il deep learning si riferisce a un processo che impiega architetture di reti neurali profonde, che sono particolari tipi di algoritmi di machine learning. Deep Learning Definizioni Chiave 2. Reti neurali artificiali L'architettura dell'apprendimento automatico è stata originariamente ispirata dal cervello biologico (in particolare il neurone) mediante il quale viene effettuato l'apprendimento profondo. In realtà, le sole reti neurali artificiali (ANN) (la varietà non profonda) esistono da molto tempo e storicamente sono state in grado di risolvere determinati tipi di problemi. Tuttavia, relativamente di recente, sono state ideate architetture di reti neurali che includevano livelli di neuroni nascosti (oltre ai livelli di input e output) e questo ulteriore livello di complessità è ciò che consente il deep learning e fornisce un insieme più potente di strumenti per la risoluzione dei problemi. Le RNA in realtà variano considerevolmente nelle loro architetture e quindi non esiste una definizione di rete neurale definitiva. Le 2 caratteristiche generalmente citate di tutte le reti neurali sono il possesso di insiemi di pesi adattivi e la capacità di approssimare le funzioni non lineari degli input ai neuroni. Deep Learning Definizioni Chiave 3. Neurone biologico Si parla spesso della connessione definitiva tra reti neurali biologiche e artificiali. Pubblicazioni popolari diffondono l'idea che le RNA siano in qualche modo una replica esatta di ciò che sta accadendo nel cervello umano (o altro biologico). Questo è chiaramente impreciso; nella migliore delle ipotesi, le prime reti neurali artificiali furono ispirate dalla biologia. La relazione astratta tra i 2 non è più definitiva del confronto astratto tracciato tra la composizione e la funzionalità degli atomi e il sistema solare. Detto questo, ci fa bene vedere come funzionano i neuroni biologici a un livello molto alto, se non altro per capire cosa ha ispirato la creazione di un neurone artificiale. I principali componenti del neurone biologico che ci interessano sono: Il nucleo contiene informazioni genetiche (es. DNA) Il corpo cellulare elabora le attivazioni di input e le converte in attivazioni di output I dendriti ricevono attivazioni da altri neuroni Gli assoni trasmettono attivazioni ad altri neuroni Le terminazioni degli assoni , insieme ai dendriti vicini, formano le sinapsi tra i neuroni Le sostanze chimiche chiamate neurotrasmettitori si diffondono quindi attraverso la fessura sinaptica tra una terminazione assonale e un dendrite vicino, costituendo una neurotrasmissione. L'operazione essenziale del neurone è che un'attivazione fluisca in un neurone attraverso un dendrite, venga elaborata e quindi ritrasmessa da un assone, attraverso le sue terminazioni assoniche, dove attraversa la fessura sinaptica e raggiunge un certo numero di dendriti dei neuroni riceventi , dove il processo viene ripetuto. Deep Learning Definizioni Chiave 4. Perceptron Un perceptron è un semplice classificatore binario lineare. I perceptron prendono input e pesi associati (che rappresentano l'importanza relativa dell'input) e li combinano per produrre un output, che viene quindi utilizzato per la classificazione. I perceptron esistono da molto tempo, con le prime implementazioni risalenti agli anni '50, la prima delle quali è stata coinvolta nelle prime implementazioni ANN. Deep Learning Definizioni Chiave 5. Perceptron multistrato Un perceptron multistrato (MLP) è l'implementazione di diversi strati di perceptron completamente adiacenti collegati, che formano una semplice rete neurale feedforward (vedi sotto). Questo perceptron multistrato ha l'ulteriore vantaggio di funzioni di attivazione non lineare, che i singoli perceptron non possiedono. Deep Learning Definizioni Chiave 6. Rete neurale feedforward Le reti neurali feedforward sono la forma più semplice di architettura di rete neurale, in cui le connessioni non sono cicliche. La rete neurale artificiale originale, le informazioni in una rete feedforward avanza in un'unica direzione dai nodi di input, attraverso qualsiasi livello nascosto, ai nodi di output; non sono presenti cicli. Le reti feedforward differiscono dalle architetture di rete successive e ricorrenti (vedi sotto), in cui le connessioni formano un ciclo diretto. Deep Learning Definizioni Chiave 7. Rete neurale ricorrente In contrasto con le reti neurali feedforward di cui sopra, le connessioni delle reti neurali ricorrenti formano un ciclo diretto. Questo flusso bidirezionale consente la rappresentazione dello stato temporale interno, che, a sua volta, consente l'elaborazione della sequenza e, in particolare, fornisce le capacità necessarie per riconoscere il parlato e la scrittura a mano. Deep Learning Definizioni Chiave 8. Funzione di attivazione Nelle reti neurali, la funzione di attivazione produce i limiti di decisione dell'output combinando gli input ponderati della rete. Le funzioni di attivazione vanno dall'identità (lineare) al sigmoide (logistico o passo morbido) all'iperbolico (tangente) e oltre. Per utilizzare la backpropagation (vedi sotto), la rete deve utilizzare funzioni di attivazione differenziabili. Deep Learning Definizioni Chiave 9. Backpropagation La migliore definizione elementare e concisa di backpropagation che abbia mai incontrato è: Si confrontano le previsioni della rete neurale con l'output desiderato e quindi si calcola il gradiente degli errori rispetto ai pesi della rete neurale. Questo ti dà una direzione nello spazio del peso del parametro in cui l'errore diventerebbe più piccolo. Deep Learning Definizioni Chiave 10. Funzione di costo Quando si addestra una rete neurale, è necessario valutare la correttezza dell'output della rete. Poiché conosciamo l'output corretto previsto dei dati di addestramento, è possibile confrontare l'output di addestramento. La funzione di costo misura la differenza tra i risultati effettivi e di formazione. Un costo pari a zero tra i risultati effettivi e quelli previsti significherebbe che la rete si è allenata come sarebbe possibile; questo sarebbe chiaramente l'ideale. Quindi, con quale meccanismo viene regolata la funzione di costo ? Deep Learning Definizioni Chiave 11. Discesa graduale La discesa del gradiente è un algoritmo di ottimizzazione utilizzato per trovare i minimi locali di funzioni. Sebbene non garantisca un minimo globale, la discesa del gradiente è particolarmente utile per funzioni difficili da risolvere analiticamente per soluzioni precise, come l'impostazione di derivate a zero e la risoluzione. Come accennato in precedenza, nel contesto delle reti neurali, la discesa stocastica del gradiente viene utilizzata per apportare modifiche informate ai parametri della rete con l'obiettivo di ridurre al minimo la funzione di costo, avvicinando così gli output effettivi della rete, in modo iterativo, agli output attesi durante il corso di formazione. Questa minimizzazione iterativa utilizza il calcolo, ovvero la differenziazione. Dopo una fase di addestramento, i pesi della rete ricevono aggiornamenti in base al gradiente della funzione di costo e ai pesi correnti della rete, in modo che i risultati della fase di addestramento successiva possano essere un po' più vicini alla correzione (misurata da una funzione di costo più piccola). La backpropagation (propagazione all'indietro degli errori) è il metodo utilizzato per distribuire questi aggiornamenti alla rete. Deep Learning Definizioni Chiave 12. Problema del gradiente di scomparsa La backpropagation utilizza la regola della catena per calcolare i gradienti (mediante differenziazione), in quanto gli strati verso il "fronte" (input) di una rete neurale a n strati avrebbero il loro piccolo numero aggiornato il valore del gradiente moltiplicato n volte prima che questo valore stabilito fosse usato come un aggiornare. Ciò significa che il gradiente diminuirebbe in modo esponenziale, un problema con valori maggiori di n e gli strati frontali richiederebbero sempre più tempo per allenarsi in modo efficace. Deep Learning Definizioni Chiave 13. Rete neurale convoluzionale Tipicamente associate alla visione artificiale e al riconoscimento delle immagini, le reti neurali convoluzionali (CNN) utilizzano il concetto matematico di convoluzione per imitare la rete di connettività neurale della corteccia visiva biologica. In primo luogo, la convoluzione può essere pensata come una finestra scorrevole sopra una rappresentazione a matrice di un'immagine (vedi sotto). Ciò consente di imitare liberamente la piastrellatura sovrapposta del campo visivo biologico. L'implementazione di questo concetto nell'architettura della rete neurale si traduce in raccolte di neuroni dedicati all'elaborazione di sezioni di immagini, almeno quando impiegati nella visione artificiale. Quando utilizzato in qualche altro dominio, come l'elaborazione del linguaggio naturale, può essere utilizzato lo stesso approccio, dato che l'input (parole, frasi, ecc.) Potrebbe essere organizzato in matrici ed elaborato in modo simile. Deep Learning Definizioni Chiave 14. Rete di memoria a lungo termine Una rete di memoria a lungo termine (LSTM) è una rete neurale ricorrente ottimizzata per apprendere e agire su dati relativi al tempo che possono avere periodi di tempo indefiniti o sconosciuti tra eventi rilevanti. La loro particolare architettura consente la persistenza, dando all'ANN una "memoria". Le recenti scoperte nel riconoscimento della grafia e nel riconoscimento vocale automatico hanno beneficiato delle reti LSTM. Questo è chiaramente solo un piccolo sottoinsieme della terminologia del deep learning e molti concetti aggiuntivi, da elementari a avanzati, attendono la tua esplorazione : Cosa é Un Neurone Artificiale E La Storia Del Perceptron, Deep Learning Che cosa è il Deep Learning (DL) Chi ha inventato il Deep Learning ? Vediamo in breve la storia del Deep Learning Come funziona il Deep Learning o Apprendimento Profondo ? Computer Vision e Deep Learning - Visione Artificiale e cosa centra il Deep Learning Funzioni di Attivazione nel deep learning la Guida Completa Gli Algoritmi di Deep Learning o Apprendimento profondo più diffusi e usati nel 2022 15 Applicazioni di Deep Learning che devi conoscere Le principali Librerie per il Deep Learning di Python Semplici progetti di Deep Learning e Computer Vision Con Esempi pratici in Python Come salvare e caricare il tuo modello di deep learning o apprendimento profondo PyTorch vs TensorFlow quale è meglio per creare modelli di deep learning Le Differenze tra Machine Learning (ML) e Deep Learning (DL) e Intelligenza Artificiale Il tuo primo Programma di Deep Learning in Python con Keras Step-By-Step Deep learnign e python : Object Recognition e Object Predict esempio pratico Reti Neurali con python tutorial completo Come implementare l'algoritmo Perceptron da zero in Python esempio pratico Riconoscimento facciale con Python, in meno di 25 righe di codice.

  • Intelligenza Artificiale e Customer Experience - Strategie Vincenti per le Imprese di Successo

    Chatbot: Gli Assistenti Virtuali al Servizio del Cliente I chatbot sono tra le applicazioni di Intelligenza Un esempio di successo nell'adozione dei chatbot è quello di Starbucks. L'azienda ha introdotto il suo chatbot "My Starbucks Barista" che permette ai clienti di ordinare le Secondo i dati di Starbucks, il chatbot ha gestito oltre 1 milione di conversazioni nei suoi primi 8 Alcune delle tecnologie più comuni includono chatbot e assistenti virtuali basati su NLP, sistemi di

  • Allarme intelligenza artificiale nelle aziende: l’89% di app e tool usati dai dipendenti è fuori controllo

    problemi nell’adozione di strumenti di intelligenza artificiale generativa è che molte applicazioni, come ChatGPT

  • Cosa è Operator di OpenAI? L'agente AI che lavora per te (senza chiedere ferie)

    Attualmente, Operator è disponibile solo per gli utenti ChatGPT Pro negli Stati Uniti, al costo di 200

  • Come Diventare Uno Sviluppatore Di Intelligenza Artificiale (AI)

    Da assistenti vocali come Siri e Alexa a sofisticati chatbot come ChatGPT, le applicazioni dell'IA sono Questi sistemi possono variare da semplici chatbot a complessi algoritmi di machine learning che analizzano

  • Analisi dei componenti principali (PCA) dalla spiegazione al codice python

    Lo scopo di questo post è fornire una spiegazione completa e semplificata dell'analisi dei componenti principali (PCA). Tratteremo passo dopo passo come funziona, in modo che tutti possano capirlo e utilizzarlo, anche coloro che non hanno un forte background matematico. Perchè studiare l'analisi dei componenti principali (PCA) ? La PCA è un metodo ampiamente trattato sul Web e ci sono alcuni ottimi articoli a riguardo, ma molti trascorrono troppo tempo su aspetti superficiali e non realmente utili, quando la maggior parte di noi vuole solo sapere come funziona in modo semplice. Come funziona l'analisi dei componenti principali (PCA) ? L'analisi delle componenti principali può essere suddivisa in cinque fasi. Passerò attraverso ogni passaggio, fornendo spiegazioni logiche di ciò che sta facendo PCA e semplificando concetti matematici come standardizzazione, covarianza, autovettori e autovalori senza concentrarmi su come calcolarli. Le 5 fasi per l'analisi dei componenti principali (PCA) : Standardizzare l'intervallo di variabili iniziali continue Calcola la matrice di covarianza per identificare le correlazioni Calcola gli autovettori e gli autovalori della matrice di covarianza Crea un vettore di funzionalità per decidere quali componenti principali mantenere Riformula i dati lungo gli assi dei componenti principali Spaventato ? Non preoccuparti, ora semplificheremo il tutto, ma prima facciamo un piccolo passo inditro e capiamo bene cosa è l'analisi dei componenti principali o PCA. Che cos'è l'analisi dei componenti principali o PCA ? L'analisi dei componenti principali, o PCA, è un metodo di riduzione della dimensionalità che viene spesso utilizzato per ridurre la dimensionalità di grandi insiemi di dati, trasformando un grande insieme di variabili in uno più piccolo che contiene ancora la maggior parte delle informazioni nell'insieme di grandi dimensioni. La riduzione del numero di variabili di un set di dati va naturalmente a scapito dell'accuratezza, ma il trucco nella riduzione della dimensionalità è scambiare un po' di precisione per semplicità. Perché set di dati più piccoli sono più facili da esplorare e visualizzare e rendono l'analisi dei dati molto più semplice e veloce per gli algoritmi di apprendimento automatico senza variabili estranee da elaborare. Quindi, per riassumere, l'idea di PCA è semplice: ridurre il numero di variabili di un set di dati, preservando quante più informazioni possibili. Naturalmente questa è una definizione ridotta all'osso che serve a darti un idea super semplificata dell'analisi dei componenti principali o PCA. Spiegazione dell'analisi dei componenti principali o PCA PASSAGGIO 1: STANDARDIZZAZIONE Lo scopo di questo passaggio è standardizzare l'intervallo delle variabili iniziali continue in modo che ciascuna di esse contribuisca in egual modo all'analisi. Nota : naturalmente se vogliamo stimare i prezzi di un appartamento, i metri quadrati ( es 90 mq^2 ) e il numero di balconi ( es 2 ) avranno pesi diversi e noi dobbiamo renderli omogenei... Più specificamente, il motivo per cui è fondamentale eseguire la standardizzazione prima della PCA, è che quest'ultima è piuttosto sensibile per quanto riguarda le varianze delle variabili iniziali. Cioè, se ci sono grandi differenze tra gli intervalli delle variabili iniziali, quelle variabili con intervalli più grandi domineranno su quelle con intervalli piccoli (ad esempio, una variabile compresa tra 0 e 100 dominerà su una variabile compresa tra 0 e 1 ), che porterà a risultati distorti. Quindi, trasformare i dati in scale comparabili può prevenire questo problema. Matematicamente, questo può essere fatto sottraendo la media e dividendo per la deviazione standard per ogni valore di ciascuna variabile. Una volta completata la standardizzazione, tutte le variabili verranno trasformate nella stessa scala. Voglio farti un esempio di un set di dati STANDARDIZZATO e uno no. TABELLA NON NORMALIZZATA TABELLA NORMALIZZATA PASSAGGIO 2: CALCOLO DELLA MATRICE DI COVARIANZA Lo scopo di questo passaggio è capire come le variabili dell'insieme di dati di input variano dalla media l'una rispetto all'altra, o in altre parole, per vedere se esiste una relazione tra loro. Perché a volte, le variabili sono altamente correlate in modo tale da contenere informazioni ridondanti. Quindi, per identificare queste correlazioni, calcoliamo la matrice di covarianza. La matrice di covarianza è una matrice simmetrica p × p (dove p è il numero di dimensioni) che ha come voci le covarianze associate a tutte le possibili coppie delle variabili iniziali. Ad esempio, per un set di dati tridimensionale con 3 variabili x , y e z , la matrice di covarianza è una matrice 3 × 3 di questo da: Poiché la covarianza di una variabile con se stessa è la sua varianza (Cov(a,a)=Var(a)), nella diagonale principale (in alto da sinistra in basso a destra) abbiamo effettivamente le varianze di ciascuna variabile iniziale. E poiché la covarianza è commutativa (Cov(a,b)=Cov(b,a)), le voci della matrice di covarianza sono simmetriche rispetto alla diagonale principale, il che significa che le porzioni triangolari superiore e inferiore sono uguali. Cosa ci dicono le covarianze che abbiamo come voci della matrice sulle correlazioni tra le variabili? In realtà è il segno della covarianza che conta: se positivo allora : le due variabili aumentano o diminuiscono insieme (correlate) se negativo allora: uno aumenta quando l'altro diminuisce (correlato inversamente) Ora che sappiamo che la matrice di covarianza non è altro che una tabella che riassume le correlazioni tra tutte le possibili coppie di variabili, passiamo al passaggio successivo. PASSAGGIO 3: CALCOLARE GLI AUTOVETTORI E GLI AUTOVALORI DELLA MATRICE DI COVARIANZA PER IDENTIFICARE I COMPONENTI PRINCIPALI Autovettori e autovalori sono i concetti di algebra lineare che dobbiamo calcolare dalla matrice di covarianza per determinare le componenti principali dei dati. Prima di arrivare alla spiegazione di questi concetti, capiamo prima cosa si intende per componenti principali. Le componenti principali sono nuove variabili costruite come combinazioni lineari o miscele delle variabili iniziali. Queste combinazioni sono fatte in modo tale che le nuove variabili (cioè le componenti principali) non siano correlate e la maggior parte delle informazioni all'interno delle variabili iniziali sia compressa o compressa nelle prime componenti. Quindi, l'idea è che i dati a 10 dimensioni forniscano 10 componenti principali, ma PCA cerca di inserire la massima informazione possibile nel primo componente, quindi il massimo delle informazioni rimanenti nel secondo e così via, fino a ottenere qualcosa di simile a quello mostrato nello scree plot sotto. Organizzare le informazioni nei componenti principali in questo modo, ti consentirà di ridurre la dimensionalità senza perdere molte informazioni, e questo scartando i componenti con informazioni basse e considerando i componenti rimanenti come nuove variabili. Una cosa importante da capire qui è che le componenti principali sono meno interpretabili e non hanno alcun significato reale poiché sono costruite come combinazioni lineari delle variabili iniziali. Geometricamente parlando, le componenti principali rappresentano le direzioni dei dati che spiegano una quantità massima di varianza , vale a dire le linee che catturano la maggior parte delle informazioni dei dati. La relazione tra varianza e informazioni qui è che, maggiore è la varianza portata da una linea, maggiore è la dispersione dei punti dati lungo di essa e maggiore è la dispersione lungo una linea, maggiore è l'informazione che ha. Per dirla semplicemente, basti pensare ai componenti principali come a nuovi assi che forniscono l'angolo migliore per vedere e valutare i dati, in modo che le differenze tra le osservazioni siano meglio visibili. Come PCA costruisce i componenti principali Poiché ci sono tante componenti principali quante sono le variabili nei dati, le componenti principali sono costruite in modo tale che la prima componente principale tenga conto della maggiore varianza possibile nel set di dati. Ad esempio, supponiamo che il grafico a dispersione del nostro set di dati sia come mostrato di seguito, possiamo indovinare il primo componente principale? Sì, è approssimativamente la linea che corrisponde ai segni viola perché passa per l'origine ed è la linea in cui la proiezione dei punti (punti rossi) è più estesa. O matematicamente parlando, è la linea che massimizza la varianza (la media delle distanze al quadrato dai punti proiettati (punti rossi) all'origine). La seconda componente principale è calcolata allo stesso modo, a condizione che non sia correlata (cioè perpendicolare alla) prima componente principale e che rappresenti la varianza successiva più alta. Ciò continua fino a quando non è stato calcolato un totale di p componenti principali, pari al numero originario di variabili. Ora che abbiamo capito cosa intendiamo per componenti principali, torniamo agli autovettori e agli autovalori. La prima cosa che devi sapere su di loro è che vengono sempre in coppia, in modo che ogni autovettore abbia un autovalore. E il loro numero è uguale al numero di dimensioni dei dati. Ad esempio, per un set di dati tridimensionale, ci sono 3 variabili, quindi ci sono 3 autovettori con 3 autovalori corrispondenti. Senza ulteriori indugi, sono gli autovettori e gli autovalori alla base di tutta la magia spiegata sopra, perché gli autovettori della matrice di covarianza sono in realtà le direzioni degli assi dove c'è la maggior varianza (maggior parte delle informazioni) e che chiamiamo Componenti principali. E gli autovalori sono semplicemente i coefficienti associati agli autovettori, che danno la quantità di varianza trasportata in ogni componente principale . Classificando i tuoi autovettori in ordine di autovalori, dal più alto al più basso, ottieni le componenti principali in ordine di significatività. Esempio: Supponiamo che il nostro set di dati sia bidimensionale con 2 variabili x,y e che gli autovettori e gli autovalori della matrice di covarianza siano i seguenti: Se classifichiamo gli autovalori in ordine decrescente, otteniamo λ1>λ2, il che significa che l'autovettore che corrisponde alla prima componente principale (PC1) è v1 e quello che corrisponde alla seconda componente (PC2) è v2. Dopo aver ottenuto le componenti principali, per calcolare la percentuale di varianza (informazione) contabilizzata da ciascuna componente, dividiamo l'autovalore di ciascuna componente per la somma degli autovalori. Se applichiamo questo all'esempio sopra, troviamo che PC1 e PC2 portano rispettivamente il 96% e il 4% della varianza dei dati. PASSAGGIO 4: VETTORE DI FUNZIONALITÀ Come abbiamo visto nel passaggio precedente, calcolare gli autovettori e ordinarli per i loro autovalori in ordine decrescente, ci permette di trovare le componenti principali in ordine di significato. In questo passaggio, quello che facciamo è scegliere se mantenere tutte queste componenti o scartare quelle di minor significato (di bassi autovalori), e formare con le restanti una matrice di vettori che chiamiamo Feature vector . Quindi, il vettore delle caratteristiche è semplicemente una matrice che ha come colonne gli autovettori delle componenti che decidiamo di mantenere. Questo lo rende il primo passo verso la riduzione della dimensionalità, perché se scegliamo di mantenere solo p autovettori (componenti) da n , il set di dati finale avrà solo p dimensioni. Esempio : Continuando con l'esempio del passaggio precedente, possiamo formare un vettore di caratteristiche con entrambi gli autovettori v 1 e v 2: Oppure scartare l'autovettore v 2, che è quello di minor significato, e formare un vettore di caratteristiche solo con v 1: L'eliminazione dell'autovettore v2 ridurrà la dimensionalità di 1 e di conseguenza causerà una perdita di informazioni nel set di dati finale. Ma dato che v 2 conteneva solo il 4% delle informazioni, la perdita non sarà quindi importante e avremo ancora il 96% delle informazioni trasportate da v 1. Quindi, come abbiamo visto nell'esempio, sta a te scegliere se conservare tutti i componenti o scartare quelli di minore importanza, a seconda di cosa stai cercando. Perché se vuoi solo descrivere i tuoi dati in termini di nuove variabili (componenti principali) che non sono correlate senza cercare di ridurre la dimensionalità, non è necessario tralasciare componenti meno significativi. ULTIMO PASSAGGIO: RIFORMULARE I DATI LUNGO GLI ASSI DEI COMPONENTI PRINCIPALI Nei passaggi precedenti, a parte la standardizzazione, non si apportano modifiche ai dati, si selezionano solo i componenti principali e si forma il vettore delle caratteristiche, ma il set di dati di input rimane sempre in termini di assi originali (ovvero in termini di le variabili iniziali). In questo passaggio, che è l'ultimo, lo scopo è utilizzare il vettore di caratteristiche formato utilizzando gli autovettori della matrice di covarianza, per riorientare i dati dagli assi originali a quelli rappresentati dalle componenti principali (da cui il nome Analisi delle Componenti Principali ). Questo può essere fatto moltiplicando la trasposizione del set di dati originale per la trasposizione del vettore della caratteristica. Analisi dei componenti principali con Python Ricapitoliamo gli Usi dell'Analisi dei componenti principali : Viene utilizzato per trovare l'interrelazione tra le variabili nei dati. Viene utilizzato per interpretare e visualizzare i dati. Il numero di variabili sta diminuendo e semplifica ulteriormente l'analisi. Viene spesso utilizzato per visualizzare la distanza genetica e la parentela tra le popolazioni. Questi sono fondamentalmente eseguiti su una matrice simmetrica quadrata. Può essere una pura somma di quadrati e matrice di prodotti incrociati o matrice di covarianza o matrice di correlazione. Una matrice di correlazione viene utilizzata se la varianza individuale differisce molto. Ora, capiamo l'analisi dei componenti principali con Python. Per ottenere il set di dati utilizzato nell'implementazione, fare clic qui e cercare nella cartella DATASET CSV il file "Wine.csv". Passaggio 1: importazione delle librerie import numpy as np import matplotlib.pyplot as plt import pandas as pd Passaggio 2: importazione del set di dati Importare il set di dati e distribuirlo nei componenti X e y per l'analisi dei dati. dataset = pd.read_csv('wine.csv') X = dataset.iloc[:, 0:13].values y = dataset.iloc[:, 13].values Passaggio 3: suddivisione del set di dati nel set di allenamento e nel set di test from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2, random_state = 0) Passaggio 4: ridimensionamento delle funzionalità Esecuzione della parte di pre-elaborazione sul set di formazione e test, ad esempio l'adattamento della scala standard. from sklearn.preprocessing import StandardScaler sc = StandardScaler() X_train = sc.fit_transform(X_train) X_test = sc.transform(X_test) Passaggio 5: Applicazione della funzione PCA Applicazione della funzione PCA al set di training e test per l'analisi. from sklearn.decomposition import PCA pca = PCA(n_components = 2) X_train = pca.fit_transform(X_train) X_test = pca.transform(X_test) explained_variance = pca.explained_variance_ratio_ Passaggio 6: adattamento della regressione logistica al set di allenamento from sklearn.linear_model import LogisticRegression classifier = LogisticRegression(random_state = 0) classifier.fit(X_train, y_train) Passaggio 7: prevedere il risultato del set di test y_pred = classifier.predict(X_test) Passaggio 8: creare la matrice di confusione from sklearn.metrics import confusion_matrix cm = confusion_matrix(y_test, y_pred) Passaggio 9: prevedere il risultato del set di allenamento from matplotlib.colors import ListedColormap X_set, y_set = X_train, y_train X1, X2 = np.meshgrid(np.arange(start = X_set[:, 0].min() - 1, stop = X_set[:, 0].max() + 1, step = 0.01), np.arange(start = X_set[:, 1].min() - 1, stop = X_set[:, 1].max() + 1, step = 0.01)) plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape), alpha = 0.75, cmap = ListedColormap(('yellow', 'white', 'aquamarine'))) plt.xlim(X1.min(), X1.max()) plt.ylim(X2.min(), X2.max()) for i, j in enumerate(np.unique(y_set)): plt.scatter(X_set[y_set == j, 0], X_set[y_set == j, 1], c = ListedColormap(('red', 'green', 'blue'))(i), label = j) plt.title('Logistic Regression (Training set)') plt.xlabel('PC1') # Xlabel plt.ylabel('PC2') # Ylabel plt.legend() # to show legend plt.show() Passaggio 10: visualizzazione dei risultati del set di test from matplotlib.colors import ListedColormap X_set, y_set = X_test, y_test X1, X2 = np.meshgrid(np.arange(start = X_set[:, 0].min() - 1, stop = X_set[:, 0].max() + 1, step = 0.01), np.arange(start = X_set[:, 1].min() - 1, stop = X_set[:, 1].max() + 1, step = 0.01)) plt.contourf(X1, X2, classifier.predict(np.array([X1.ravel(), X2.ravel()]).T).reshape(X1.shape), alpha = 0.75, cmap = ListedColormap(('yellow', 'white', 'aquamarine'))) plt.xlim(X1.min(), X1.max()) plt.ylim(X2.min(), X2.max()) for i, j in enumerate(np.unique(y_set)): plt.scatter(X_set[y_set == j, 0], X_set[y_set == j, 1], c = ListedColormap(('red', 'green', 'blue'))(i), label = j) # title for scatter plot plt.title('Logistic Regression (Test set)') plt.xlabel('PC1') # Xlabel plt.ylabel('PC2') # Ylabel plt.legend() # show plt.show() Riepilogo dell'analisi dei componenti principali In questa sezione abbiamo discusso l'uso dell'analisi delle componenti principali per la riduzione della dimensionalità, per la visualizzazione di dati ad alta dimensione, per il filtraggio del rumore e per la selezione delle caratteristiche all'interno di dati ad alta dimensione. A causa della versatilità e dell'interpretabilità del PCA, si è dimostrato efficace in un'ampia varietà di contesti e discipline. Dato qualsiasi set di dati ad alta dimensione, tendo a iniziare con PCA per visualizzare la relazione tra i punti (come abbiamo fatto con le cifre), per capire la varianza principale nei dati (come abbiamo fatto con le autofacce) e per capire la dimensionalità intrinseca (tracciando il rapporto di varianza spiegato). Certamente PCA non è utile per ogni set di dati ad alta dimensione, ma offre un percorso semplice ed efficiente per ottenere informazioni dettagliate sui dati ad alta dimensione.

  • Trucchi Python per la data science

    introduzione Grazie alla sua semplicità e facilità di apprendimento , Python è diventato molto popolare in questi giorni. Viene utilizzato per varie attività come data science, machine learning, sviluppo web, scripting, automazione, ecc . Python non è una delle competenze più impegnative per i data scientist. La semplicità di Python è il primo di numerosi vantaggi nella scienza dei dati. Sebbene alcuni data scientist abbiano un background in informatica o conoscano altri linguaggi di programmazione, moltiI data scientist provengono da statistica, matematica o altre discipline tecniche e potrebbero non avere la stessa conoscenza di programmazione quando entrano nell'industria . La sintassi di Python è facile da capire e da scrivere, il che lo rende un linguaggio di programmazione veloce e facile da imparare. In questo articolo, abbiamo raccolto più di 40 funzioni e metodi che possono aiutarti ad accelerare le tue attività di data science . Bene, iniziamo….. Gestire Liste e dizionari con Python ? Gli elementi di una lista possono essere ripetuti in modo abbastanza esteso in una singola riga. Mettiamolo in pratica usando il seguente esempio: numbers = [1, 2, 3, 4, 5, 6, 7, 8] even_numbers = [number for number in numbers if number % 2 == 0] print(even_numbers) Output: [1,3,5,7] La stessa cosa può essere fatta usando dizionari, set e generatori. Diamo un'occhiata a un altro esempio, questa volta con i dizionari: dictionary = {'first_num': 1, 'second_num': 2, 'third_num': 3, 'fourth_num': 4} oddvalues = {key: value for (key, value) in dictionary.items() if value % 2 != 0} print(oddvalues)Output: {'first_num': 1, 'third_num': 3} Come utilizzare la funzione enumerate() con Python ? Enumerate è una funzione utile per scorrere un oggetto come un elenco, un dizionario o un file. La funzione produce una tupla che include i valori acquisiti dall'iterazione dell'oggetto e il contatore di loop (dalla posizione iniziale di 0). Quando si desidera scrivere codice in base all'indice, il contatore di loop è utile. Diamo un'occhiata a un esempio in cui il primo e l'ultimo elemento potrebbero essere trattati in modo diverso. sentence = 'Just do It' length = len(sentence) for index, element in enumerate(sentence): print('{}: {}'.format(index, element)) if index == 0: print('The first element!') elif index == length - 1: print('The last element!') Output: 0: J The first element! 1: u 2: s 3: t 4: 5: d 6: o 7: 8: I 9: t The last element! I file possono anche essere enumerati con la funzione enumera. Prima di uscire dal ciclo, stamperemo le prime 10 righe del file CSV nell'esempio seguente. Non replicheremo il risultato perché è troppo lungo. Puoi, tuttavia, usarlo su qualsiasi file tu abbia. with open('heart.csv') as f: for i, line in enumerate(f): if i == 10: break print(line) Come Restituire più valori da una funzione con Python ? Spesso desideriamo restituire più di un valore durante la progettazione di funzioni. Analizzeremo due approcci tipici qui: Metodo 1: Iniziamo con l'opzione più semplice: restituire una tupla. Questa tecnica viene spesso utilizzata solo quando sono presenti due o tre valori da restituire. Quando ci sono più valori in una tupla, è semplice perdere traccia dell'ordine degli elementi. Nella sezione del codice sotto get_student c'è una funzione di esempio che restituisce il nome e il cognome del dipendente come tuple in base ai loro numeri ID. # returning a tuple. def get_student(id_num): if id_num == 0: return 'Taha', 'Nate' elif id_num == 1: return 'Jakub', 'Abdal' else: raise Exception('No Student with this id: {}'.format(id_num)) Quando chiamiamo la funzione get_student con il numero 0, notiamo che restituisce una tupla con due valori: 'Taha' e 'Nate' Student = get_student(0) print('first_name: {}, last_name: {}'.format(Student[0], Student[1])) Output: first_name: Taha, last_name: Nate Metodo 2: Restituire un dizionario è la seconda opzione. Poiché i dizionari sono coppie di valori chiave, possiamo nominare i valori che vengono restituiti, il che è più intuitivo delle tuple. Il metodo 2 è lo stesso del metodo 1, restituisce solo un dizionario. # returning a dictionary def get_data(id_num): if id_num == 0: return {'first_name': 'Muhammad', 'last_name': 'Taha', 'title': 'Data Scientist', 'department': 'A', 'date_joined': '20200807'} elif id_num == 1: return {'first_name': 'Ryan', 'last_name': 'Gosling', 'title': 'Data Engineer', 'department': 'B', 'date_joined': '20200809'} else: raise Exception('No employee with this id: {}'.format(id_num)) È più facile fare riferimento a un valore specifico tramite la sua chiave quando un risultato è un dizionario. Stiamo chiamando la funzione con id_num = 0 employee = get_data(0) print('first_name: {},nlast_name: {},ntitle: {},ndepartment: {},ndate_joined: {}'.format( employee['first_name'], employee['last_name'], employee['title'], employee['department'], employee['date_joined'])) Output: first_name: Muhammad, last_name: Taha, title: Data Scientist, department: A, date_joined: 2020-08-07 Come Confrontare più numeri con Python ? Se hai un valore e desideri confrontarlo con altri due valori, puoi utilizzare la seguente espressione matematica di base: 1<x<30 Questo è il tipo di espressione algebrica che impariamo alle elementari. Tuttavia, l'istruzione identica può essere utilizzata anche in Python. Sì, avete letto bene. Fino ad ora, presumibilmente hai eseguito confronti in questo formato: 1<x e x<30 In Python, tutto ciò che devi fare è usare quanto segue: 1<x<30 x = 5 print(1<x<30) Uscita: true For-Else Method con Python ? Questo metodo viene utilizzato per applicare il ciclo su un elenco. In generale, quando vuoi scorrere un elenco che applichi, un ciclo for. Ma con questo metodo, puoi passare un'altra condizione in un ciclo, il che è estremamente raro. Altri linguaggi di programmazione non supportano questo metodo. Diamo un'occhiata a come funziona in generale. Se vuoi controllare se c'è un numero pari in una lista. number_List = [1, 3, 7, 9,8] for number in number_List: if number % 2 == 0: print(number) break else: print("No even numbers!!") Output: 8 Se viene trovato un numero pari, il numero verrà stampato e la parte else non verrà eseguita poiché passiamo un'istruzione break. Se l'istruzione break non viene mai eseguita, verrà eseguito il blocco else. Come trovare l'elemento più grande o più piccolo da un elenco con Python ? Usando il modulo "heapq" puoi trovare l'elemento n-più grande o n-più piccolo da un elenco. Vediamo un esempio: import heapq numbers = [80, 25, 68, 77, 95, 88, 30, 55, 40, 50] print(heapq.nlargest(5, numbers)) print(heapq.nsmallest(5, numbers)) Output: [95, 88, 80, 77, 68] [25, 30, 40, 50, 55] Come passare tutti i valori di un elenco come argomento di funzioni? È possibile accedere a tutti gli elementi di un elenco utilizzando un "*" def Summation(*arg): sum = 0 for i in arg: sum += i return sum result = Summation(*[8,5,10,7]) print(result) Output: 30 Come ripetere un'intera stringa senza eseguire il loop con Python ? Basta moltiplicare la stringa per un numero, il numero di volte in cui vuoi che la stringa venga ripetuta. Allora il tuo lavoro è fatto. value = "Taha" print(value * 5) print("-" *21) Output: TahaTahaTahaTahaTaha Come trovare l'indice di un elemento da una lista con Python ? Utilizzare ".index" per trovare l'indice di un elemento da un elenco cities= ['Vienna', 'Amsterdam', 'Paris', 'Berlin'] print(cities.index('Berlin')) Output: 3 Come stampare più elementi sulla stessa linea con Python ? print("Analytics", end="") print("Vidhya") print("Analytics", end=" ") print("Vidhya") print('Data', 'science', 'blogathon', '12', sep=', ') Output: AnalyticsVidhya Analytics Vidhya Data, science, logathon, 12 Qual è la differenza tra "is" e "==" in Python ? Se vuoi controllare se due variabili puntano allo stesso oggetto, devi usare "is" Ma se vuoi controllare se due variabili sono uguali o meno, devi usare "==". list1 = [7, 9, 4] list2 = [7, 9, 4] print(list1 == list2) print(list1 is list2) list3 = list1 print(list3 is list1) Output: True False True La prima affermazione è True, perché list1 e list2 hanno entrambi gli stessi valori, quindi sono uguali. La seconda istruzione è False perché i valori puntano a variabili diverse nella memoria e la terza istruzione è True perché list1 e list3 puntano entrambi a un oggetto comune in memoria. Come unire 2 dizionari in una singola riga di codice con Python ? first_dct = {"London": 1, "Paris": 2} second_dct = {"Tokyo": 3, "Seol": 4} merged = {**first_dct, **second_dct} print(merged) Output: {‘London’: 1, ‘Paris’: 2, ‘Tokyo’: 3, ‘Seol’: 4} Come identificare se una stringa inizia con un carattere specifico o meno con Python ? Se hai bisogno di sapere se una stringa inizia con un alfabeto specifico, puoi utilizzare il metodo di indicizzazione che è comune. Ma puoi anche usare una funzione chiamata " inizia con", ti dirà se una stringa inizia con una parola specifica o meno, che passi alla funzione. sentence = "Analytics Vidhya" print(sentence.startswith("b")) print(sentence.startswith("A")) Output: False True Come ottenere l'Unicode di un carattere con Python ? Se hai bisogno di conoscere l'Unicode di un carattere, devi usare una funzione chiamata "ord" e passare il carattere nella funzione, di cui vuoi conoscere l'Unicode. Vediamo un esempio: print(ord("T")) print(ord("A")) print(ord("h")) print(ord("a")) Uscita: 84 65 104 97 Come ottenere la coppia chiave-valore di un dizionario con Python ? Se vuoi accedere alla chiave e al valore di un dizionario in modo diverso, puoi farlo usando una funzione chiamata "items()" . cities = {'London': 1, 'Paris': 2, 'Tokyo': 3, 'Seol': 4} for key, value in cities.items(): print(f"Key: {key} and Value: {value}") Output: Key: London and Value: 1 Key: Paris and Value: 2 Key: Tokyo and Value: 3 Key: Seol and Value: 4 Come i valori booleani possono essere utilizzati nelle operazioni matematiche con Python ? False è considerato 0 e True è considerato 1 x = 9 y = 3 outcome = (x - False)/(y * True) print(outcome) Output: 3.0 Come aggiungere valore in una posizione specifica di una lista con Python ? Se vuoi aggiungere un valore a una lista usando la funzione “append” , ma aggiungerà un valore nell'ultima posizione di una lista. Quindi, cosa succede se si desidera aggiungere valore in una posizione specifica di un elenco. Puoi anche farlo, puoi usare una funzione chiamata "inserisci" per inserire un valore in una posizione specifica di un elenco. Sintassi: list_name.insert(posizione, valore) Vediamo un esempio. cities = ["London", "Vienna", "Rome"] cities.append("Seoul") print("After append:", cities) cities.insert(0, "Berlin") print("After insert:", cities) Output: After append: [‘London’, ‘Vienna’, ‘Rome’, ‘Seoul’] After insert: [‘Berlin’, ‘London’, ‘Vienna’, ‘Rome’, ‘Seoul’] Funzione Filter() con Python ? Il funzionamento della funzione filtro risiede nel suo nome. Filtra un iteratore specifico in base a una funzione specifica passata al suo interno. Restituisce un iteratore. Sintassi: filtro (funzione, iteratore) Vediamo un esempio con la funzione filtro: mixed_number = [8, 15, 25, 30,34,67,90,5,12] filtered_value = filter(lambda x: x > 20, mixed_number) print(f"Before filter: {mixed_number}") print(f"After filter: {list(filtered_value)}") Output: Before filter: [8, 15, 25, 30, 34, 67, 90, 5, 12] After filter: [25, 30, 34, 67, 90] Come creare una funzione senza limite di parametri con Python ? Puoi creare una funzione senza preoccuparti dei parametri. È possibile passare qualsiasi numero di parametri desiderati quando si chiama la funzione. Vediamo un esempio: def multiplication(*arguments): mul = 1 for i in arguments: mul = mul * i return mul print(multiplication(3, 4, 5)) print(multiplication(5, 8, 10, 3)) print(multiplication(8, 6, 15, 20, 5)) Output: 60 1200 72000 Come eseguire l'iterazione su due o più elenchi contemporaneamente con Python ? Puoi scorrere un singolo elenco usando la funzione enumera, ma quando hai due o più elenchi, puoi anche scorrere su di essi usando la funzione "zip()" . capital = ['Vienna', 'Paris', 'Seoul',"Rome"] countries = ['Austria', 'France', 'South Korea',"Italy"] for cap, country in zip(capital, countries): print(f"{cap} is the capital of {country}") Output: Vienna is the capital of Austria Paris is the capital of France Seoul is the capital of South Korea Amsterdam is the capital of Italy Come modificare il "case" delle lettere in una frase con Python ? Se vuoi cambiare le maiuscole delle lettere, cioè maiuscole in minuscole e minuscole in maiuscole, puoi farlo usando una funzione chiamata "scambia maiuscole". Vediamo un esempio: sentence = "Data Science Blogathon." changed_sen = sentence.swapcase() print(changed_sen) Output: dATA sCIENCE bLOGATHON. Come controllare la dimensione della memoria utilizzata da un oggetto con Python ? Per controllare la memoria utilizzata da un oggetto importa prima la libreria sys poi usa un metodo di questa libreria chiamato “ getsizeof ”. Restituirà la dimensione della memoria utilizzata dall'oggetto. import sys mul = 5*6 print(sys.getsizeof(mul)) Output: 28 Funzione Map() con Python ?: La funzione map() viene utilizzata per applicare una funzione specifica a un determinato iteratore. Sintassi: mappa(funzione, iteratore) values_list = [8, 10, 6, 50] quotient = map(lambda x: x/2, values_list) print(f"Before division: {values_list}") print(f"After division: {list(quotient)}") Output: Before division: [8, 10, 6, 50] After division: [4.0, 5.0, 3.0, 25.0] Come invertire un'intera stringa con Python ? Per invertire una stringa puoi usare il metodo di slicing. Vediamo un esempio: value = "Analytics" print("Reverse is:", value[::-1]) Output: Reverse is: scitylanA Come scoprire il tempo di esecuzione di un blocco con Python ? Quando si addestra il modello di machine learning o deep learning o si esegue semplicemente un blocco di codice, è possibile verificare quanto tempo è stato necessario per eseguire il blocco di codice. Devi usare una funzione magica "%%time" nella parte superiore del blocco del tuo codice. Ti mostrerà la quantità di tempo necessaria per eseguire il blocco di codice. Vediamo un esempio: %%time sentence = "Data Science Blogathon." changed_sen = sentence.swapcase() print(changed_sen) Output: dATA sCIENCE bLOGATHON. Wall time: 998 µs Come rilasciare il carattere sinistro o destro di una stringa con Python ? Ci sono due funzioni chiamate “rstrip()” e “lstrip()” , “rstrip” è usato per eliminare alcuni caratteri dalla destra di una stringa e “lstrip” è usato per eliminare alcuni caratteri dalla sinistra di una stringa. Il valore predefinito di entrambe le funzioni è uno spazio vuoto. Ma puoi passare il tuo carattere specifico per rimuoverli dalla stringa. sentence1 = "Data Science Blogathon " print(f"After removing the right space: {sentence1.rstrip()}") sentence2 = " Data Science Blogathon" print(f"After removing the left space: {sentence2.lstrip()}") sentence3 = "Data Science Blogathon .,bbblllg" print("After applying rstrip:", sentence3.rstrip(".,blg")) Output: After removing the right space: Data Science Blogathon After removing the left space: Data Science Blogathon After applying rstrip: Data Science Blogathon Come contare il numero di volte in cui un elemento appare in un elenco con Python ? Puoi contare il numero di volte in cui un elemento appare in un elenco eseguendo un ciclo for tra di essi. Ma puoi farlo più facilmente, semplicemente chiamando un metodo nell'elenco chiamato "count" . Ecco un esempio: cities= ["Amsterdam", "Berlin", "New York", "Seoul", "Tokyo", "Paris", "Paris","Vienna","Paris"] print("Paris appears", cities.count("Paris"), "times in the list") Output: Paris appears 3 times in the list Come trovare l'indice di un elemento in una tupla o in una lista con Python ? Puoi trovare l'indice di un elemento in una tupla o in una lista semplicemente chiamando un semplice metodo chiamato "index" su quella tupla o lista. Ecco un esempio: cities_tuple = ("Berlin", "Paris", 5, "Vienna", 10) print(cities_tuple.index("Paris")) cities_list = ['Vienna', 'Paris', 'Seoul',"Amsterdam"] print(cities_list.index("Amsterdam")) Output: 1 3 Come rimuovere ogni elemento da un elenco o da un set con Python ? Puoi rimuovere tutti gli elementi da un elenco o da un insieme applicando un metodo chiamato "cancella" su quell'elenco o insieme. cities_list = ['Vienna', 'Paris', 'Seoul',"Amsterdam"] print(f"Before removing from the list: {cities_list}") cities_list.clear() print(f"After removing from the list: {cities_list}") cities_set = {'Vienna', 'Paris', 'Seoul',"Amsterdam"} print(f"Before removing from the set: {cities_set}") cities_set.clear() print(f"After removing from the set: {cities_set}") Output: Before removing from the list: [‘Vienna’, ‘Paris’, ‘Seoul’, ‘Amsterdam’] After removing from the list: [] Before removing from the set: {‘Vienna’, ‘Amsterdam’, ‘Seoul’, ‘Paris’} Come unire 2 set di dati con Python ? Per unire due insiemi puoi applicare il metodo chiamato “union()”. Si unirà alle due liste su cui hai applicato il metodo. set1 = {'Vienna', 'Paris', 'Seoul'} set2 = {"Tokyo", "Rome",'Amsterdam'} print(set1.union(set2)) Output: {‘Vienna’, ‘Tokyo’, ‘Seoul’, ‘Amsterdam’, ‘Rome’, ‘Paris’} Come ordinare i valori di un elenco in base alla loro frequenza con Python ? Innanzitutto, usa "counter" dal modulo chiamato collections per misurare la frequenza di ciascun valore, quindi applica un metodo chiamato "most_common" sul risultato del contatore per ordinare i valori dell'elenco in base alla loro frequenza. from collections import Counter count = Counter([7, 6, 5, 6, 8, 6, 6, 6]) print(count) print("Sort values according their frequency:", count.most_common()) Output: Counter({6: 5, 7: 1, 5: 1, 8: 1}) Sort values according their frequency: [(6, 5), (7, 1), (5, 1), (8, 1)] Come eliminare i valori duplicati da un elenco con Python ? Innanzitutto, converti l'elenco in un set, questo rimuoverà i valori duplicati perché un set non contiene valori duplicati. Quindi converti nuovamente il set in un elenco, in questo modo puoi facilmente eliminare i valori duplicati da un elenco. cities_list = ['Vienna', 'Paris', 'Seoul',"Amsterdam","Paris","Amsterdam","Paris"] cities_list = set(cities_list) print("After removing the duplicate values from the list:",list(cities_list)) Output: After removing the duplicate values from the list: [‘Vienna’, ‘Amsterdam’, ‘Seoul’, ‘Paris’] Come fare una singola frase da tutti gli elementi di una lista con Python ? Utilizzando un metodo chiamato “join” puoi unire tutti i singoli elementi di una lista e creare una singola stringa o frase. words_list = ["Data", "science", "Blogathon"] print(" ".join(words_list)) Output: Data science Blogathon Come restituire più valori da una funzione contemporaneamente con Python ? Sì, puoi farlo in Python. È possibile restituire più valori da una funzione contemporaneamente. Vediamo un esempio: def calculation(number): mul = number*2 div = number/2 summation = number+2 subtract = number-2 return mul, div, summation, subtract mul, div, summation, subtract = calculation(10) print("Multiplication:", mul) print("Division:", div) print("Summation:", summation) print("Subtraction:", subtract) Output: Multiplication: 20 Division: 5.0 Summation: 12 Subtraction: 8 Come scoprire la differenza tra due liste con Python ? Per prima cosa, converti le liste in insiemi, quindi applica il metodo chiamato "symmetric_difference" su questi insiemi. Ciò restituirà la differenza tra questi due elenchi. cities_list1 = ['Vienna', 'Paris', 'Seoul',"Amsterdam", "Berlin", "London"] cities_list2 = ['Vienna', 'Paris', 'Seoul',"Amsterdam"] cities_set1 = set(cities_list1) cities_set2 = set(cities_list2) difference = list(cities_set1.symmetric_difference(cities_set2)) print(difference) Output: [‘Berlin’, ‘London’] Come unire due elenchi diversi in un unico dizionario con Python ? Innanzitutto, applica una funzione zip su questi due elenchi, quindi converti l'output della funzione zip in un dizionario. Il tuo lavoro è finito, è così facile convertire due elenchi in un unico dizionario. number = [1, 2, 3] cities = ['Vienna', 'Paris', 'Seoul'] result = dict(zip(number, cities)) print(result) Output: {1: ‘Vienna’, 2: ‘Paris’, 3: ‘Seoul’} Come ottenere gli n elementi più grandi o gli n più piccoli di un elenco con Python ? Prima importa il modulo "heap q" quindi applica il metodo "n più grande" e "n più piccolo" e passa il valore di n e il nome della lista, in questo modo puoi ottenere gli n elementi più grandi e gli n più piccoli di una lista. import heapq numbers = [100, 20, 8, 90, 86, 95, 9, 66, 28, 88] print(heapq.nlargest(3, numbers)) print(heapq.nsmallest(3, numbers)) Output: [100, 95, 90] [8, 9, 20] Conclusioni Grazie per aver letto tutto l'articolo fino alla fine. Speriamo che questo articolo ti abbia aiutato a imparare qualcosa di nuovo.

  • Corso Gratis su Python e Machine Learning

    Python è una delle piattaforme in più rapida crescita per l'apprendimento automatico applicato. In questo mini-corso scoprirai come iniziare, creare modelli accurati e completare con sicurezza progetti di machine learning di modellazione predittiva utilizzando Python. Questo è un post molto importante e ricco di concetti fondamentali che difficilmente cambieranno nel tempo, ti consigliamo di aggiungerlo ai segnalibri. A chi è rivolto questo corso gratis su Python e Machine learning? Prima di iniziare, assicuriamoci che tu sia nel posto giusto. L'elenco seguente fornisce alcune linee guida generali su chi è stato progettato questo corso gratuito su python e il Machine learning. Non farti prendere dal panico se non rientri esattamente a questi punti, potresti semplicemente aver bisogno di rispolverare un'area per seguire senza problemi i tutorial. Sviluppatori che sanno scrivere un po' di codice . Ciò significa che non è un grosso problema per te prendere un nuovo linguaggio di programmazione come Python una volta che conosci la sintassi di base. Non significa che sei un programmatore mago, solo che puoi seguire un linguaggio di base simile al C con poco sforzo. Sviluppatori che conoscono un po' di machine learning . Ciò significa che conosci le basi dell'apprendimento automatico come la convalida incrociata, alcuni algoritmi e il compromesso tra bias e varianza . Non significa devi avere 2 lauree, 3 master e 7 dottorati, ma solo che conosci i punti di riferimento o sai dove cosa cercare se non ti è chiarissimo. Questo mini-corso non è né un libro di testo su Python né un libro di testo sull'apprendimento automatico, ma è un insieme di tutorial di difficoltà crescente, che se seguiti con costanza e dedizione ti poteranno a saperti muovere e sviluppare modelli di M.L. con Python. Ti porterà da uno sviluppatore che conosce un po' di machine learning a uno sviluppatore che può ottenere risultati utilizzando l'ecosistema Python, la piattaforma emergente per l'apprendimento automatico professionale. Semplicemente seguendo questo corso gratis su Python e Machine Learning Panoramica del corso gratis su Python e Machine Learning Questo mini-corso è suddiviso in 14 lezioni. Puoi completare una lezione al giorno (consigliato) o completare tutte le lezioni in un giorno (Vivamente sconsigliato!). Dipende molto dal tempo che hai a disposizione e dal tuo livello di entusiasmo. Di seguito sono elencate 14 lezioni che ti permetteranno di iniziare e diventare produttivo con l'apprendimento automatico e Python: Lezione 1 : Scarica e installa l'ecosistema Python e SciPy. Lezione 2 : Muoversi in Python, NumPy, Matplotlib e Pandas. Lezione 3 : Caricare dati da CSV. Lezione 4 : Comprendere i dati con le statistiche descrittive. Lezione 5 : Comprendere i dati con la visualizzazione. Lezione 6 : Prepararsi alla modellazione mediante la preelaborazione dei dati. Lezione 7 : Valutazione dell'algoritmo con metodi di ricampionamento. Lezione 8 : Metriche di valutazione dell'algoritmo. Lezione 9 : Algoritmi Spot-Check. Lezione 10 : Confronto e selezione del modello. Lezione 11 : Migliorare la precisione con l'ottimizzazione degli algoritmi. Lezione 12 : Migliorare la precisione con le previsioni dell'ensemble. Lezione 13 : Finalizza e salva il tuo modello. Lezione 14 : Hello World End-to-End Project. Ogni lezione potrebbe richiedere 60 secondi o fino a 30 minuti. Scarica il corso Python e Machine learning come ebook PDF Abbiamo inviato questo articolo in anteprima ai nostri utenti più attivi, e loro hanno consigliato di prendersi un oretta per lezione sopratutto per quelle dopo la 3/4 lezione Prenditi il ​​tuo tempo e completa le lezioni al tuo ritmo. Poni domande e pubblica persino risultati nei commenti qui sotto. Le lezioni si aspettano che tu esca e scopra come fare le cose. Ti daremo dei suggerimenti, ma parte del punto di ogni lezione è costringerti a imparare dove andare per cercare aiuto su e sulla piattaforma Python. SUGGERIMENTO, tutte le risposte sono disponibili direttamente su questo blog, usa la barra ricerca Sei pronto ? Iniziamo ? Diamo il via al Mini Corso Python e M.L. Tieni duro, non mollare! Lezione 1 corso gratis Python e Machine Learning: Scarica e installa Python e SciPy Non puoi iniziare con l'apprendimento automatico in Python finché non hai accesso alla piattaforma. La lezione di oggi è facile, devi scaricare e installare la piattaforma Python 3.6 sul tuo computer. Visita la homepage di Python e scarica Python per il tuo sistema operativo (Linux, OS X o Windows). Installa Python sul tuo computer. Potrebbe essere necessario utilizzare un gestore di pacchetti specifico della piattaforma come macports su OS X o yum su RedHat Linux. È inoltre necessario installare la piattaforma SciPy e la libreria scikit-learn. Ti consiglio di usare lo stesso approccio che hai usato per installare Python. Puoi installare tutto in una volta (molto più semplice) con Anaconda . Consigliato per i principianti. Avvia Python per la prima volta digitando "python" nella riga di comando. Controlla le versioni di tutto ciò di cui avrai bisogno usando il codice qui sotto: # Python version import sys print('Python: {}'.format(sys.version)) # scipy import scipy print('scipy: {}'.format(scipy.__version__)) # numpy import numpy print('numpy: {}'.format(numpy.__version__)) # matplotlib import matplotlib print('matplotlib: {}'.format(matplotlib.__version__)) # pandas import pandas print('pandas: {}'.format(pandas.__version__)) # scikit-learn import sklearn print('sklearn: {}'.format(sklearn.__version__)) Se ci sono errori, fermati. Ora è il momento di risolverli. Se sei proprio alle prime armi e stai trovando troppa difficoltà nell'installare Python e le relative librerie ti mettiamo a disposizione un NOSTRO AMBIENTE VIRTUALE, con Python e le librerie già installate che ti permetteranno di Programmare Python direttamente dal BROWSER. Una volta aperto, potrai tranquillamente copiare e incollare il codice, e premere sul bottoncino verde, oppure premendo SHIFT-INVIO contemporaneamente. Il risultato vi apparirà così : Letture consigliate per approfondire la LEZIONE 1 Come installare Python Come scaricare, gestire e disinstallare le librerie di Python Principali librerie per il Machine Learning di Python 10 Migliori Librerie Python Lezione 2 corso gratis Python e Machine Learning: Primi passi con Python, NumPy, Matplotlib e Pandas. Devi essere in grado di leggere e scrivere script Python di base. Come sviluppatore, puoi imparare nuovi linguaggi di programmazione abbastanza rapidamente. Python fa distinzione tra maiuscole e minuscole, usa l'hash (#) per i commenti e usa gli spazi bianchi per indicare i blocchi di codice (gli spazi bianchi sono importanti). Il compito di oggi è esercitarsi con la sintassi di base del linguaggio di programmazione Python e importanti strutture dati SciPy nell'ambiente interattivo Python. Esercitati con l'assegnazione, il lavoro con le liste e il controllo del flusso in Python. Esercitati a lavorare con gli array NumPy. Esercitati a creare semplici trame in Matplotlib. Esercitati a lavorare con Pandas Series e DataFrames. Ad esempio, di seguito è riportato un semplice esempio di creazione di un Pandas DataFrame . # dataframe import numpy import pandas myarray = numpy.array([[1, 2, 3], [4, 5, 6]]) rownames = ['a', 'b'] colnames = ['one', 'two', 'three'] mydataframe = pandas.DataFrame(myarray, index=rownames, columns=colnames) print(mydataframe) Se sei proprio alle prime armi e stai trovando troppa difficoltà nell'installare Python e le relative librerie ti mettiamo a disposizione un NOSTRO AMBIENTE VIRTUALE, con Python e le librerie già installate che ti permetteranno di Programmare Python direttamente dal BROWSER. Mi Raccomando, anche se ti sembrerà banale scrivere questi semplici script, esercitati provando a cambiare qualcosa nel codice. Solo così alla fin delle lezioni avrai realmente imparato a muoverti con Python e le principali librerie. Letture consigliate per approfondire la LEZIONE 2 Trucchi Python per la data science Manipolazione Dati con Python e Pandas Intelligenza Artificiale (IA) e Python Come si Relazionano? Migliori portatili per il Machine Learning e Deep Learning 2022 Lezione 3 corso gratis Python e Machine Learning: Carica dati o dataset da file CSV Gli algoritmi di apprendimento automatico necessitano di dati. Puoi caricare i tuoi dati da file CSV, ma quando inizi con l'apprendimento automatico in Python dovresti esercitarti su set di dati di apprendimento automatico standard. Il tuo compito per la lezione di oggi è imparare a caricare i dati in Python e trovare e caricare set di dati di machine learning standard. Ci sono molti eccellenti set di dati standard di apprendimento automatico in formato CSV che puoi scaricare ed esercitarti nel nostro repository di DATASET Esercitati a caricare file CSV in Python usando CSV.reader() nella libreria standard. Esercitati a caricare file CSV usando NumPy e la funzione numpy.loadtxt() . Esercitati a caricare file CSV utilizzando Pandas e la funzione pandas.read_csv() . Per iniziare, di seguito è riportato uno snippet che caricherà il set di dati sull'inizio del diabete utilizzando Panda direttamente dall'UCI Machine Learning Repository. import pandas url = "diabetes.data.csv" names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class'] data = pandas.read_csv(url, names=names) print(data.shape) Se sei proprio alle prime armi e stai trovando troppa difficoltà nell'installare Python e le relative librerie ti mettiamo a disposizione un NOSTRO AMBIENTE VIRTUALE, con Python e le librerie già installate che ti permetteranno di Programmare Python direttamente dal BROWSER. Se usi il nostro edito ONLINE, troverai le istruzioni per leggere file CSV dal tuo computer. Complimenti per essere arrivato fin qui! Tieni duro. Se hai fatto tutte e tre le prime lezioni di fila torna domani non mettere troppa carne al fuoco. Qualche domanda finora? Chiedi nei commenti. Letture consigliate per approfondire la LEZIONE 3 Cosa è un Dataset e a cosa serve Importare file excel, csv e html con Python e Pandas Come Analizzare Un Dataset in Solo 5 Passaggi Dove trovare i migliori Dataset per esercitarsi con il Machine learning Come Creare Un Dataset per il tuo Progetto Di Machine Learning Dataset per Esercitarsi nella Data Science e Data Visualizzation 60 migliori set di dati gratuiti per l'apprendimento automatico e profondo Visualizzare i dati con il LinePlot o grafico a linee con Python e MatplotLib Lezione 4 corso gratis Python e Machine Learning: Comprendere i dati con le statistiche descrittive Dopo aver caricato i tuoi dati in Python, devi essere in grado di capirli. Meglio puoi comprendere i tuoi dati, migliori e più accurati saranno i modelli che puoi costruire. Il primo passo per comprendere i tuoi dati è utilizzare le statistiche descrittive. Oggi la tua lezione è imparare a utilizzare le statistiche descrittive per comprendere i tuoi dati. Consiglio di utilizzare le funzioni di supporto fornite su Pandas DataFrame. Comprendi i tuoi dati usando la funzione head() per guardare le prime righe. Rivedi le dimensioni dei tuoi dati con la proprietà shape . Guarda i tipi di dati per ogni attributo con la proprietà dtypes . Rivedi la distribuzione dei tuoi dati con la funzione describe() . Calcola la correlazione a coppie tra le tue variabili usando la funzione corr() . L'esempio seguente carica il set di dati sull'inizio del diabete e riassume la distribuzione di ciascun attributo. import pandas url = "diabetes.data.csv" names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class'] data = pandas.read_csv(url, names=names) description = data.describe() print(description) Se sei proprio alle prime armi e stai trovando troppa difficoltà nell'installare Python e le relative librerie ti mettiamo a disposizione un NOSTRO AMBIENTE VIRTUALE, con Python e le librerie già installate che ti permetteranno di Programmare Python direttamente dal BROWSER. Provalo! Se non funziona scrivi nei commenti l'errore Letture consigliate per approfondire la LEZIONE 4: Cos'è la Statistica e che Correlazione c'è con il Machine Learning ? Differenze tra Analisi descrittiva, predittiva e prescrittiva Statistiche sull'utilizzo dei social media nel 2022 Lezione 5 corso gratis Python e Machine Learning: Comprendere i dati con la visualizzazione Continuando dalla lezione di ieri, devi dedicare del tempo a comprendere meglio i tuoi dati. Un secondo modo per migliorare la comprensione dei dati consiste nell'utilizzare tecniche di visualizzazione dei dati (ad es. il tracciamento). Oggi, la tua lezione consiste nell'imparare come utilizzare la stampa in Python per comprendere gli attributi da soli e le loro interazioni. Ancora una volta, consiglio di utilizzare le funzioni di supporto fornite su Pandas DataFrame. Utilizzare la funzione hist() per creare un istogramma di ogni attributo. Usa la funzione plot(kind='box') per creare grafici box-and-whisker di ogni attributo. Utilizzare la funzione pandas.scatter_matrix() per creare grafici a dispersione a coppie di tutti gli attributi. Ad esempio, il frammento di codice seguente caricherà il set di dati del diabete e creerà una matrice del grafico a dispersione del set di dati. import matplotlib.pyplot as plt import pandas from pandas.plotting import scatter_matrix url = "diabetes.data.csv" names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class'] data = pandas.read_csv(url, names=names) scatter_matrix(data) plt.show() il risultato di questo script sarà questo : Naturalmente senza delle basi Statistico/matematiche per te sarà difficile capire questi grafici o individuare degli Insights. Letture consigliate per approfondire la LEZIONE 5: Visualizzare i dati con lo ScatterPlot o grafico a dispersione con Python Visualizzare i dati con il LinePlot o grafico a linee con Python Creare Grafici Interattivi e Dinamici con Python Hey, NON ANDARE AVANTI CON LE LEZIONI SE PRIMA NON HAI PROVATO A CREARE ALMENO 5 o 6 GRAFICI. Lezione 6 corso gratis Python e Machine Learning: Prepararsi alla modellazione mediante la preelaborazione dei dati I tuoi dati grezzi potrebbero non essere configurati per essere nella forma migliore per la modellazione. A volte è necessario preelaborare i dati per presentare al meglio la struttura intrinseca del problema nei dati agli algoritmi di modellazione. Nella lezione di oggi utilizzerai le capacità di pre-elaborazione fornite da scikit-learn. La libreria scikit-learn fornisce due idiomi standard per la trasformazione dei dati. Ciascuna trasformazione è utile in circostanze diverse: Adatta e Trasformazione multipla e Adatta e trasforma combinata. Esistono molte tecniche che è possibile utilizzare per preparare i dati per la modellazione. Ad esempio, prova alcuni dei seguenti Standardizzare i dati numerici (ad es. media di 0 e deviazione standard di 1) utilizzando le opzioni della scala e del centro. Normalizzare i dati numerici (ad es. in un intervallo di 0-1) utilizzando l'opzione intervallo. Esplora l'ingegneria delle funzionalità più avanzate come la binarizzazione. Ad esempio, lo snippet seguente carica il set di dati sull'inizio del diabete , calcola i parametri necessari per standardizzare i dati, quindi crea una copia standardizzata dei dati di input. from sklearn.preprocessing import StandardScaler import pandas import numpy url = "diabetes.data.csv" names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class'] dataframe = pandas.read_csv(url, names=names) array = dataframe.values # separiamo il target X = array[:,0:8] Y = array[:,8] scaler = StandardScaler().fit(X) rescaledX = scaler.transform(X) # trasformiamo i dati numpy.set_printoptions(precision=3) print(rescaledX[0:5,:]) L'output di questo codice sarà : Se sei proprio alle prime armi e stai trovando troppa difficoltà nell'installare Python e le relative librerie ti mettiamo a disposizione un NOSTRO AMBIENTE VIRTUALE, con Python e le librerie già installate che ti permetteranno di Programmare Python direttamente dal BROWSER. Letture consigliate per approfondire la LEZIONE 6: Come preparare i dati per il Machine Learning Feature Engineering e Feature Selection per Principianti e non Una Guida Semplice e Completa per passare da Excel a Python Lezione 7 corso gratis Python e Machine Learning: Valutazione dell'algoritmo con metodi di ricampionamento Il set di dati utilizzato per addestrare un algoritmo di apprendimento automatico è chiamato set di dati di addestramento. Il set di dati utilizzato per addestrare un algoritmo non può essere utilizzato per fornire stime affidabili dell'accuratezza del modello sui nuovi dati. Questo è un grosso problema perché l'idea di creare il modello è fare previsioni su nuovi dati. È possibile utilizzare metodi statistici chiamati metodi di ricampionamento per suddividere il set di dati di addestramento in sottoinsiemi, alcuni vengono utilizzati per addestrare il modello e altri vengono trattenuti e utilizzati per stimare l'accuratezza del modello su dati invisibili. Il tuo obiettivo con la lezione di oggi è esercitarti utilizzando i diversi metodi di ricampionamento disponibili in scikit-learn, ad esempio: Suddividi un set di dati in set di training e test. Stimare l'accuratezza di un algoritmo utilizzando la convalida incrociata k-fold. Stimare l'accuratezza di un algoritmo utilizzando la convalida incrociata omettere uno. Lo snippet di seguito utilizza scikit-learn per stimare l'accuratezza dell'algoritmo di regressione logistica sull'inizio del set di dati del diabete utilizzando una convalida incrociata di 10 volte. from pandas import read_csv from sklearn.model_selection import KFold from sklearn.model_selection import cross_val_score from sklearn.linear_model import LogisticRegression url = "diabetes.data.csv" names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class'] dataframe = read_csv(url, names=names) array = dataframe.values X = array[:,0:8] Y = array[:,8] kfold = KFold(n_splits=10, random_state=7, shuffle=True) model = LogisticRegression(solver='liblinear') results = cross_val_score(model, X, Y, cv=kfold) print("Accuracy: %.3f%% (%.3f%%)" % (results.mean()*100.0, results.std()*100.0)) Noi abbiamo ottenuto questa precisione : Facci sapere nei commenti quanto ti è uscito :) Prima di andare avanti con lezioni, divertiti a giocare un po con parametri dell'ultimo script e facci sapere se riesci ad ottenere una precisione più alta dell'85% Lezione 8 corso gratis Python e Machine Learning: Metriche di valutazione dell'algoritmo Esistono molte metriche diverse che puoi utilizzare per valutare l'abilità di un algoritmo di apprendimento automatico su un set di dati. Puoi specificare la metrica utilizzata per il tuo cablaggio di test in scikit-learn tramite la funzione cross_validation.cross_val_score() e le impostazioni predefinite possono essere utilizzate per problemi di regressione e classificazione. Il tuo obiettivo con la lezione di oggi è esercitarti utilizzando le diverse metriche delle prestazioni dell'algoritmo disponibili nel pacchetto scikit-learn. Esercitati a utilizzare le metriche Precisione e LogLoss su un problema di classificazione. Esercitati a generare una matrice di confusione e un rapporto di classificazione. Esercitati a utilizzare le metriche RMSE e RSquared su un problema di regressione. Lo snippet seguente mostra il calcolo della metrica LogLoss sull'inizio del set di dati del diabete. from pandas import read_csv from sklearn.model_selection import KFold from sklearn.model_selection import cross_val_score from sklearn.linear_model import LogisticRegression url = "diabetes.data.csv" names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class'] dataframe = read_csv(url, names=names) array = dataframe.values X = array[:,0:8] Y = array[:,8] kfold = KFold(n_splits=10) model = LogisticRegression(solver='liblinear') scoring = 'neg_log_loss' results = cross_val_score(model, X, Y, cv=kfold, scoring=scoring) print(f"Logloss: {results.mean()}%" ) Output Che perdita hai avuto? Facci sapere nei commenti. Letture consigliate per approfondire la LEZIONE 8: Guida Completa Algoritmi di Machine Learning Come funzionano gli algoritmi di machine learning? Algoritmi Supervisionati e Non Supervisionati la vera differenza Lezione 9 corso gratis Python e Machine Learning: Algoritmi Spot-Check Non puoi assolutamente sapere quale algoritmo funzionerà meglio sui tuoi dati in anticipo. Devi scoprirlo usando un processo di tentativi ed errori. Lo chiamo algoritmi di controllo a campione. La libreria scikit-learn fornisce un'interfaccia a molti algoritmi e strumenti di apprendimento automatico per confrontare l'accuratezza stimata di tali algoritmi. In questa lezione, devi esercitarti nel controllo a campione di diversi algoritmi di apprendimento automatico. Algoritmi lineari di controllo spot su un set di dati (ad es. regressione lineare, regressione logistica e analisi discriminante lineare). Spot check di alcuni algoritmi non lineari su un dataset (es. KNN, SVM e CART). Verifica a campione alcuni sofisticati algoritmi di ensemble su un set di dati (ad es. foresta casuale e aumento del gradiente stocastico). Ad esempio, lo snippet sotto controlla a campione l'algoritmo K-Nearest Neighbors sul set di dati Boston House Price. from pandas import read_csv from sklearn.model_selection import KFold from sklearn.model_selection import cross_val_score from sklearn.neighbors import KNeighborsRegressor url = "housing.data" names = ['CRIM', 'ZN', 'INDUS', 'CHAS', 'NOX', 'RM', 'AGE', 'DIS', 'RAD', 'TAX', 'PTRATIO', 'B', 'LSTAT', 'MEDV'] dataframe = read_csv(url, delim_whitespace=True, names=names) array = dataframe.values X = array[:,0:13] Y = array[:,13] kfold = KFold(n_splits=10, random_state=7) model = KNeighborsRegressor() scoring = 'neg_mean_squared_error' results = cross_val_score(model, X, Y, cv=kfold, scoring=scoring) print(results.mean()) a Noi è uscito questo Output Naturalmente questo ti servirà per scegliere il modello con il MINOR ERRORE Sei arrivato già ad un buon punto del corso su Python e Machine Learning ed hai imparato molto, hai visto tantissimi concetti. Prenditi uno o due giorni per riguardare ciò che hai fatto fin ora con occhi diversi. E inizia a cercare un set di dati che ti interessa per iniziare ad applicare in modo autonomo quanto visto fin ora Letture consigliate per approfondire la LEZIONE 9: Algoritmo Support Vector Machine (SVM) Spiegazione Algoritmo gradient boosting dalla spiegazione all'implementazione Come implementare l'algoritmo Perceptron da zero in Python Scikit Learn e Python Tutorial Per Creare Modelli di Intelligenza Artificiale Come creare una semplice intelligenza artificiale Classificatore vs Regressione quale usare? Machine learning esempi pratici Le Differenze tra Machine Learning (ML) e Deep Learning (DL) Lezione 10 corso gratis Python e Machine Learning: Confronto e selezione del modello Ora che sai come individuare gli algoritmi di machine learning sul tuo set di dati, devi sapere come confrontare le prestazioni stimate di diversi algoritmi e selezionare il modello migliore. Nella lezione di oggi, ti eserciterai a confrontare l'accuratezza degli algoritmi di apprendimento automatico in Python con scikit-learn. Confronta gli algoritmi lineari tra loro su un set di dati. Confronta gli algoritmi non lineari tra loro su un set di dati. Confronta tra loro diverse configurazioni dello stesso algoritmo. Creare grafici dei risultati confrontando algoritmi. L'esempio seguente confronta la regressione logistica e l'analisi discriminante lineare tra loro sull'inizio del set di dati del diabete . from pandas import read_csv from sklearn.model_selection import KFold from sklearn.model_selection import cross_val_score from sklearn.linear_model import LogisticRegression from sklearn.discriminant_analysis import LinearDiscriminantAnalysis # carichiamo dataset url = "diabetes.data.csv" names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class'] dataframe = read_csv(url, names=names) array = dataframe.values X = array[:,0:8] Y = array[:,8] # prepare models models = [] models.append(('LR', LogisticRegression(solver='liblinear'))) models.append(('LDA', LinearDiscriminantAnalysis())) # valutiamo i modelli results = [] names = [] scoring = 'accuracy' for name, model in models: kfold = KFold(n_splits=10) cv_results = cross_val_score(model, X, Y, cv=kfold, scoring=scoring) results.append(cv_results) names.append(name) msg = cv_results.mean() print(msg) Questo è uno script potentissimo perchè ti permette di sapere velocemente quale tra gli algoritmi da te scelti è più performante. Qui sotto c'è il nostro Output : Se sei proprio alle prime armi e stai trovando troppa difficoltà nell'installare Python e le relative librerie ti mettiamo a disposizione un NOSTRO AMBIENTE VIRTUALE, con Python e le librerie già installate che ti permetteranno di Programmare Python direttamente dal BROWSER. A te che risultati sono Usciti ? Facci sapere nei commenti. Complimenti, sei quasi giunto al termine di questo corso su Python e il Machine Learning. A questo punto per far si che ti rimanga qualcosa di concreto ti consigliamo di scegliere un dataset che ti piaccia da qui e di applicare questi script. Commenta il post se ti appaiono errori. Fantastiche Idee per Progetti di Data Science per Principianti ed Esperti Lezione 11 corso gratis Python e Machine Learning: Migliorare la precisione con l'ottimizzazione degli algoritmi Dopo aver trovato uno o due algoritmi che funzionano bene sul tuo set di dati, potresti voler migliorare le prestazioni di quei modelli. Un modo per aumentare le prestazioni di un algoritmo consiste nell'accordare i suoi parametri al tuo set di dati specifico. La libreria scikit-learn offre due modi per cercare combinazioni di parametri per un algoritmo di apprendimento automatico. Il tuo obiettivo nella lezione di oggi è esercitarti su ciascuno. Ottimizza i parametri di un algoritmo utilizzando una ricerca nella griglia da te specificata. Ottimizza i parametri di un algoritmo utilizzando una ricerca casuale. Lo snippet di seguito utilizzato è un esempio dell'utilizzo di una griglia di ricerca per l'algoritmo di regressione di Ridge sul set di dati sull'insorgenza del diabete from pandas import read_csv import numpy from sklearn.linear_model import Ridge from sklearn.model_selection import GridSearchCV url = "diabetes.data.csv" names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class'] dataframe = read_csv(url, names=names) array = dataframe.values X = array[:,0:8] Y = array[:,8] alphas = numpy.array([1,0.1,0.01,0.001,0.0001,0]) param_grid = dict(alpha=alphas) model = Ridge() grid = GridSearchCV(estimator=model, param_grid=param_grid, cv=3) grid.fit(X, Y) print(grid.best_score_) print(grid.best_estimator_.alpha) Questo sarà l'output: Letture consigliate per approfondire la LEZIONE 11: Come risolvere l'Overfitting con Python e Capire cosa è l' Overfitting Cosa sono l'Overfitting e l'Underfitting? E come puoi limitarli Tutorial Pratico Tensorflow , TensorBoard e Python Lezione 12 corso gratis Python e Machine Learning: Migliorare la precisione con le previsioni dell'ensemble Un altro modo per migliorare le prestazioni dei tuoi modelli consiste nel combinare le previsioni di più modelli. Alcuni modelli forniscono questa capacità integrata, come la foresta casuale per il bagging e l'aumento del gradiente stocastico per il boost. Un altro tipo di insieme chiamato votazione può essere utilizzato per combinare le previsioni di più modelli diversi insieme. Nella lezione di oggi ti eserciterai con i metodi dell'insieme. Esercitati a insaccare gli insiemi con gli algoritmi di foresta casuale e alberi. Esercitati a potenziare gli insiemi con la macchina per aumentare il gradiente e gli algoritmi AdaBoost. Esercitati con gli insiemi di voto combinando le previsioni di più modelli insieme. Lo snippet seguente mostra come utilizzare l'algoritmo Random Forest (un insieme insaccato di alberi decisionali) sul set di dati sull'insorgenza del diabete from pandas import read_csv from sklearn.model_selection import KFold from sklearn.model_selection import cross_val_score from sklearn.ensemble import RandomForestClassifier url = "diabetes.data.csv" names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class'] dataframe = read_csv(url, names=names) array = dataframe.values X = array[:,0:8] Y = array[:,8] num_trees = 100 max_features = 3 kfold = KFold(n_splits=10) model = RandomForestClassifier(n_estimators=num_trees, max_features=max_features) results = cross_val_score(model, X, Y, cv=kfold) print(results.mean()) Output: Mancano le ultime due Lezioni, speriamo davvero che tu stia seguendo i nostri consigli e che hai iniziato il tuo progetto :) Lezione 13 corso gratis Python e Machine Learning: Finalizza e salva il tuo modello Una volta trovato un modello ben funzionante sul tuo problema di machine learning, devi finalizzarlo. Nella lezione di oggi eserciterai le attività relative alla finalizzazione del tuo modello. Esercitati a fare previsioni con il tuo modello su nuovi dati (dati non visti durante l'addestramento e i test). Esercitati a salvare i modelli addestrati su file e a caricarli di nuovo. Ad esempio, lo snippet seguente mostra come creare un modello di regressione logistica, salvarlo su file, quindi caricarlo in un secondo momento ed effettuare previsioni su dati nuovi. from pandas import read_csv from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression import pickle url = "diabetes.data.csv" names = ['preg', 'plas', 'pres', 'skin', 'test', 'mass', 'pedi', 'age', 'class'] dataframe = read_csv(url, names=names) array = dataframe.values X = array[:,0:8] Y = array[:,8] test_size = 0.33 seed = 7 X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=test_size, random_state=seed) # alleniamo il modello 75% model = LogisticRegression(solver='liblinear') model.fit(X_train, Y_train) # salviamo il modello filename = 'finalized_model.sav' pickle.dump(model, open(filename, 'wb')) # quando ti riservirà il moello... # Carichiamo il modello loaded_model = pickle.load(open(filename, 'rb')) result = loaded_model.score(X_test, Y_test) print(result) Ecco il nostro output: Letture consigliate per approfondire la LEZIONE 13: Come salvare e caricare modelli di Machine Learning con Python Come salvare e caricare il tuo modello di deep learning Lezione 14 corso gratis Python e Machine Learning: Progetto end-to-end Python e M.L. Ora sai come completare ogni attività di un problema di machine learning di modellazione predittiva. Nella lezione di oggi, devi esercitarti a mettere insieme i pezzi e lavorare con un set di dati di machine learning standard end-to-end. Abbiamo deciso di metterti qui una cartella con i due dataset molto semplici usati nelle lezioni e tutti gli script che abbiamo visto in questo corso. Ora però dovrai essere in grado di affrontare un progetto da zero. Scegli un dataset qui' , scaricalo e esegui questi passaggi: Comprendere i tuoi dati utilizzando statistiche e visualizzazioni descrittive. Preelaborazione dei dati per esporre al meglio la struttura del problema. Controllo a campione di una serie di algoritmi utilizzando il proprio cablaggio di prova. Miglioramento dei risultati utilizzando l'ottimizzazione dei parametri dell'algoritmo. Miglioramento dei risultati utilizzando metodi di ensemble. Finalizzare il modello pronto per un uso futuro. Prendilo senza fretta e registra i risultati lungo il percorso. NESSUNO TI DARA' UN VOTO, RICORDA IMPARIAMO PER NOI STESSI Che modello hai usato? Che risultati hai ottenuto? Fateci sapere nei commenti. FINE CORSO GRATIS MACHINE LEARNING E PYTHON! ( Guarda quanto sei arrivato lontano ) Ce l'hai fatta. Ben fatto! Prenditi un momento e guarda indietro a quanto sei arrivato. Hai iniziato con un interesse per l'apprendimento automatico e un forte desiderio di essere in grado di esercitarti e applicare l'apprendimento automatico utilizzando Python. Hai scaricato, installato e avviato Python, forse per la prima volta e hai iniziato a familiarizzare con la sintassi del linguaggio. Lentamente e costantemente nel corso di una serie di lezioni hai imparato come le attività standard di un progetto di machine learning di modellazione predittiva vengono mappate sulla piattaforma Python. Basandosi sulle ricette per le comuni attività di machine learning, hai elaborato i tuoi primi problemi di machine learning end-to-end utilizzando Python. Utilizzando un modello standard, le ricette e l'esperienza che hai raccolto ora sei in grado di lavorare da solo attraverso nuovi e diversi problemi di apprendimento automatico di modellazione predittiva. Non prendertela alla leggera, hai fatto molta strada in poco tempo. Questo è solo l'inizio del tuo viaggio di apprendimento automatico con Python. Continua a esercitarti e a sviluppare le tue abilità. Scarica il corso Python e Machine learning come ebook PDF Riepilogo corso gratis Python e Machine Learning Come sei andato con il mini-corso? Ti è piaciuto questo mini-corso? Avete domande? Ci sono stati dei punti critici? Fateci sapere. Lascia un commento qui sotto.

  • Crea LOGHI GRATIS con l’intelligenza artificiale - Migliori tool con IA per generare Loghi

    generatore di loghi gratuito che può creare loghi per varie tipologie di branding, dal personale al business Accedere al Chatbot di Bing AI: Dopo aver effettuato l'accesso all'app Bing AI, clicca sull'icona del logo di Bing per accedere al chatbot. Il chatbot è dove avviene la magia. Fornire un Prompt Dettagliato: Per iniziare, dovrai fornire al chatbot un prompt dettagliato.

  • Intelligenza artificiale vs intelligenza umana cosa c'è da sapere?

    Anche tu, caro lettore, potresti trovarti a leggere articoli scritto da ChatGPT, un AI addestrato per

  • Come l'Intelligenza Artificiale Rivoluziona il Giornalismo - Approfondimenti e Strategie per una Comunicazione Innovativa

    Il NYT sostiene che gli strumenti di IA di OpenAI e Microsoft, tra cui ChatGPT e Bing Chat (ora chiamato Possono anche esplorare nuovi modi di coinvolgere il pubblico, come l’uso di chatbot o di realtà virtuale

bottom of page