top of page

Risultati Ricerca Intelligenza Artificiale Italia

468 risultati trovati per "data"

  • Prevedere i terremoti con Python e il Machine Learning

    Quindi, prevedere il terremoto con data e ora, latitudine e longitudine dai dati precedenti non è una : data = pd.read_csv("database.csv") data.columns Output: Index(['Date', 'Time', 'Latitude', 'Longitude , profondità, magnitudo: data=data[['Date', 'Time', 'Latitude', 'Longitude', 'Depth', 'Magnitude']] Quindi, convertiamo la data e l'ora specificate nell'ora Unix che è in secondi e un numero. ['Date'], data['Time']): try: ts = datetime.datetime.strptime(d+' '+t, '%m/%d/%Y %H:%M:%S

  • Come rimuovere e gestire i valori anomali con python nel machine learning

    , data_std = mean(data), std(data) # identifichiamo gli outl cut_off = data_std * 3 lower, upper = data_mean = 5 * randn(10000) + 50 data_mean, data_std = mean(data), std(data) cut_off = data_std * 3 lower, /master/housing.csv' df = read_csv(url, header=None) data = df.values X, y = data[:, :-1], data[:, /master/housing.csv' df = read_csv(url, header=None) data = df.values X, y = data[:, :-1], data[:, /master/housing.csv' df = read_csv(url, header=None) data = df.values X, y = data[:, :-1], data[:,

  • Classificare i reclami dei consumatori con python e il Machine Learning

    Rimuoviamo la colonna usando questa riga di codice: data = data.drop("Unnamed: 0",axis=1) Ora diamo un'occhiata Eliminerò tutte le righe contenenti valori nulli utilizzando questa riga di codice: data = data.dropna pulito le lamentele, dividiamo i dati in set di addestramento e test: data = data[["Consumer complaint narrative", "Product"]] x = np.array(data["Consumer complaint narrative"]) y = np.array(data["Product = input("Inserisci un testo: ") data = cv.transform([user]).toarray() output = sgdmodel.predict(data

  • Prevedere il traffico di un sito web utilizzando Python

    due colonne, data e traffico. Prima di andare avanti, convertirò la colonna Date nel tipo di dati Datetime: data["Data"] = pd.to_datetime (data["Data"], format="%Y-%m-%d") print(data.info()) Output : <class ["Data"], data["Clic"]) plt.title("traffico giornaliero intelligenzaartificialeitalia.net") plt.show( ), len(data)+50) print(predictions) Ecco come possiamo vedere graficamente le previsioni: data["Clic"

  • Previsioni meteo con python e machine learning

    Ora diamo un'occhiata al rapporto tra temperatura e umidità: figure = px.scatter(data_frame = data, x Per questa attività, convertirò prima il tipo di dati della colonna della data in datetime. Ecco come possiamo modificare il tipo di dati ed estrarre i dati di anno e mese dalla colonna della data : data["date"] = pd.to_datetime(data["date"], format = '%Y-%m-%d') data['year'] = data['date'].dt.year data["month"] = data["date"].dt.month print(data.head()) Output: date meantemp humidity wind_speed

  • Chatbot vs. Agenti AI: Capire le Differenze per Migliorare il Supporto Clienti

    natural language understanding (NLU) per comprendere meglio il linguaggio naturale, apprendere dai dati

  • Previsione della manutenzione dei macchinari con Python e il Machine learning

    . import pandas as pd import seaborn as sns %matplotlib inline import matplotlib.pyplot as plt data () counts = data['Failure Type'].value_counts() sizes = [counts[machine_name] for machine_name in labels la temperatura dell'aria e di processo. # Air Temperature # sns.set_style('whitegrid') sns.distplot(data Sembrano così. with sns.axes_style('white') : g = sns.jointplot(data=data,x='Air temperature [K]', PyCaret Prima di utilizzare PyCaret, è necessario eliminare l'UDI e l'ID prodotto del set di dati. data

  • Cosa è un Dataset e a cosa serve

    Il dataset è un insieme di dati strutturati ( ad esempio una tabella ) creato per essere letto ed elaborato data e open data: Thesaurus Reperti Archeologici Luoghi della cultura Eventi culturali Anagrafe delle ISPRA: I Linked Open Data dell’Istituto Superiore per la Protezione e la Ricerca Ambientale. Per ulteriori informazioni sulla strategia nazionale di open data consulta il portale nazionale dati.gov.it nella Data Science e Data Visualizzation Manipolazione Dati con Python e Pandas Come utilizza Google

  • Deep Learning con Python e PyTorch , la guida pratica

    /data', train=True, download=True) testset = torchvision.datasets.CIFAR10(root='. /data', train=False, download=True) fig, ax = plt.subplots(4, 6, sharex=True, sharey=True, figsize= /data', train=True, download=True, transform=transform) testset = CIFAR10(root='. /data', train=False, download=True, transform=transform) batch_size = 24 trainloader = torch.utils.data.DataLoader Lezione 08: Addestra un classificatore di immagini Insieme al DataLoader creato per il set di dati CIFAR

  • I 60 migliori set di dati gratuiti per l'apprendimento automatico e profondo

    Kaggle : questo sito di data science contiene un insieme diversificato di set di dati interessanti e AWS Open Data Registry : ovviamente anche Amazon ha le mani nel barattolo dei cookie del set di dati Data USA : Data USA offre una fantastica gamma di dati pubblici statunitensi visualizzati in modo potente Portale Open Data dell'UE : questo portale di dati aperti offre oltre un milione di set di dati in 36 Wikipedia Links Data : oltre 1,9 miliardi di parole su 4 milioni di articoli, questo set di dati contiene

  • Prevedere i profitti delle startup

    anomali nella variabile target outliers = ['Profit'] plt.rcParams['figure.figsize'] = [8,8] sns.boxplot(data Rilevamento dei valori anomali a livello di stato sns.boxplot(x = 'State', y = 'Profit', data = dataset test testing_data_model_score = model.score(x_test, y_test) print("Model Score/Performance sui Testing data training_data_model_score = model.score(x_train, y_train) print("Model Score/Performance sui Training data ",training_data_model_score) Produzione: Model Score/Performance sui Testing data 0.9355139722149947

  • Come automatizzare l'analisi dei dati con Langchain e python

    Questi dati sono disponibili online e possono essere letti direttamente nel dataframe pandas. Ecco come si può fare: # Importing the datadf = pd.read_csv('http://www-stat.stanford.edu/~tibs/ElemStatLearn /datasets/SAheart.data') # Initializing the agent agent = create_pandas_dataframe_agent(OpenAI(temperature ha il nostro set di dati agent("What is the shape of the dataset?") vedere che nessuna delle colonne ha valori mancanti. # Chiediamo di stamparci le prime 5 righe del dataset

  • Dove trovare i migliori Dataset per esercitarsi con il Machine learning e Deep Learning

    dei dati I migliori set di dati pubblici per il Deep Learning Altri dataset video e audio per il deep Registro di dati aperti su AWS Nel Registry of Open Data su AWS , chiunque può condividere un set di Tra i creatori di database, troverai Facebook, Data for Good, NASA Space, Act Agreement e Space Telescope . r / set di dati Nel subreddit dei set di dati , chiunque può pubblicare i propri database open source I migliori set di dati pubblici per il Machine Learning e la scienza dei dati Database specifici del

  • Come Utilizzare l' Intelligenza Artificiale nel Settore Finanziario

    Attraverso l'uso della Data Science, è aumentata l'accuratezza nell'identificazione di irregolarità e Data science e Finance vanno di pari passo poiché Finance è il fulcro dei dati. La scienza dei dati è correlata al data mining, all'apprendimento automatico e ai big data. I Big Data e la scienza dei dati hanno avuto una grande influenza sul trading algoritmico ed è diventato Esistono numerose posizioni di Data Science nel campo della finanza.

  • Come Integrare l'Intelligenza Artificiale nei Progetti Sviluppati - Guida Dettagliata per Sviluppatori e Programmatori

    dei dati. La qualità dei dati è fondamentale per le prestazioni dell'IA. Dati sporchi o incompleti possono portare a risultati imprecisi o distorti. dati o l'uso di dati sintetici. esplorare risorse online come blog, tutorial e video didattici su piattaforme come Medium, Towards Data

bottom of page