top of page

Risultati Ricerca Intelligenza Artificiale Italia

128 risultati trovati per "data scientist"

  • Programmazione

    Bisogna avere una buona conoscenza dei concetti di programmazione come strutture dati e algoritmi . R: R Basics Vector List Data Frame Matrix Array Function, etc. dplyr ggplot2 Tidyr Shiny, etc. DataBase: SQL MongoDB Altro: Data Structure Time Complexity Web Scraping Linux Git

  • JAVA

    Può sembrare che uno scienziato dei dati non abbia bisogno di Java, tuttavia, framework come Hadoop vengono Questi framework costituiscono gran parte dello stack di big data. di big data in esecuzione in sistemi cluster. Ciò consente l'archiviazione di enormi quantità di dati e consente una maggiore potenza di elaborazione ha effettivamente una serie di librerie e strumenti per l'apprendimento automatico e la scienza dei dati

  • Imputazione media o mediana

    Questa strategia può essere applicata a una feature che contiene dati numerici. # Sostituisci i valori nulli con la media delle colonne di appartenenza data = data.fillna(data.median()) Nell'esempio sopra , usiamo il metodo mediano per riempire i valori mancanti nel set di dati.

  • Normalizzazione Min-Max in Python

    funzionalità in un determinato intervallo: from sklearn.preprocessing import MinMaxScaler import numpy as np data # creiamo lo scaler method scaler = MinMaxScaler(feature_range=(0,1)) # Scaliamo e trasformiamo i dati scaled_data = scaler.fit_transform(data) print(scaled_data) # [[0.3 0.03448276] # [1. 1. ] # [0.9 0.4137931 ] # [0. 0. ]] Come puoi vedere, i nostri dati

  • Distribuzione Normale dei Dati

    Nel capitolo precedente abbiamo imparato a creare un array completamente casuale, di una data dimensione , e tra due dati valori. In questo capitolo impareremo come creare un array in cui i valori sono concentrati attorno a un dato dei dati , o distribuzione dei dati gaussiana , dal matematico Carl Friedrich Gauss che ha inventato la formula di questa distribuzione dei dati.

  • Codifica one-hot

    LabelEncoder ci aiuterà a creare una codifica intera di etichette dai nostri dati eOneHotEncoder creerà numpy as np from sklearn.preprocessing import OneHotEncoder, LabelEncoder # definiamo un esempio data warm', 'hot']) # creiamo integer encode label_encoder = LabelEncoder() # alleniamo e trasformia i dati integer_encoded = label_encoder.fit_transform(data) print(integer_encoded) # creiamo one-hot encode (len(integer_encoded), 1) # alleniamo e trasformia i dati onehot_encoded = onehot_encoder.fit_transform

  • Confronto Abilità e Soft Skill

    analisti dei dati, ma le differenze principali sono che gli scienziati dei dati in genere utilizzano dei dati in genere utilizzano Excel e gli scienziati dei dati utilizzano l'apprendimento automatico. alcuni analisti avanzati possono utilizzare linguaggi di programmazione o avere familiarità con i big data Per comprendere meglio le differenze tra analisti di dati e scienziati di dati, ecco alcune delle abilità lavorative comuni di analisti di dati e scienziati di dati.

  • Passaggio 6: comunicare i risultati dell'analisi

    Alla fine, sei stato chiamato a creare una soluzione per tutto il processo di data science. Devi creare una storia avvincente qui che leghi i tuoi dati con la loro conoscenza. colleghi alle risposte che ti hanno fornito il tuo VP Sales e alle intuizioni che hai scoperto dai dati Durante il processo di data science, le tue attività quotidiane varieranno in modo significativo a seconda ancora di più se stai cercando di iniziare una carriera nella scienza dei dati.

  • Standardizzazione in Python

    una deviazione standard di 1 : from sklearn.preprocessing import StandardScaler import numpy as np data , 4], [1, 11]]) # creiamo lo scaler method scaler = StandardScaler() # Scaliamo e trasformiamo i dati scaled_data = scaler.fit_transform(data) print(scaled_data) # [[-0.60192927 -0.79558708] # [ 1.08347268

  • Percorsi di Studio in Italia

    Vediamo quali università in Italia offrono un percorso di studi che calzi a pennello con la data science

  • Valore più comune

    . # Sostituisci i valori nulli con la media delle colonne di appartenenza data['column_name'].fillna (data['column_name'].value_counts().idxmax(). inplace=True) Qui utilizziamo il metodo value_counts()

  • R

    R è migliore per l'analisi ad hoc e l'esplorazione di set di dati rispetto a Python. Ciò potrebbe lasciare alcuni dubbi sul fatto che R sia migliore per eseguire la scienza dei dati su grandi set di dati, tuttavia, R è stato creato da statistici e riflette questo nelle sue operazioni. Le applicazioni di data science risultano più naturali in Python.

  • La DataScience e il Rapporto con L'I.A.

    Data Science e Intelligenza Artificiale, spesso confuse l'una con l'altra ma altrettante volte capaci

  • Distribuzione dei dati

    Nel mondo reale, i set di dati sono molto più grandi, ma può essere difficile raccogliere dati del mondo Come possiamo ottenere grandi set di dati? serie di metodi per creare set di dati casuali, di qualsiasi dimensione. disegnare un istogramma con i dati che abbiamo raccolto. Distribuzioni di Big Data Un array contenente 250 valori non è considerato molto grande, ma ora sai come

  • FINANZA

    Utilizzando tecniche di apprendimento automatico e analisi di big data, le banche e altre società di dell'organizzazione, utilizzando l'analisi dei big data e l'apprendimento automatico per consentire Gli algoritmi di apprendimento automatico, supportati da big data e un'elevata potenza di calcolo, possono I dati più grandi sotto forma di flussi di dati in crescita e nuovi presentano sfide continue per i modelli Tali modelli misurano e descrivono i flussi di dati sottostanti.

bottom of page