Di più

Estrazione di più valori dalla tabella in ArcGIS ModelBuilder?

Estrazione di più valori dalla tabella in ArcGIS ModelBuilder?


Eseguo lo strumento OLS (Ordinary Least Squares) nel mio modello e produco una tabella dei coefficienti. Ora ho bisogno di usare i valori di pendenza e intercetta nella tabella dei coefficienti in un calcolatore raster. Ho provato a utilizzare i diversi iteratori (Selezione riga, Valori campo) ma emettono solo un valore alla volta.

Qualcuno sa come ottenere funzionalità simili a "SearchCursor" in ModelBuilder?

Ecco una foto del modello:

e una foto di "coef_table":

Come ottengo i due valori nella colonna Coef come valori separati che posso utilizzare nel Calcolatore raster?


Se stai utilizzando ModelBuilder e desideri creare un elenco di valori, utilizza l'iteratore Field Values ​​e invia l'output a uno strumento Collect Values. Esponi i valori di output come parametro, quindi incorpora questo sottomodello nel modello principale.

Dopo aver creato il tuo elenco di valori (nel tuo esempio stai restituendo solo due valori) puoi utilizzare lo strumento Calcola valori per estrarli nelle loro variabili che puoi quindi utilizzare con la sostituzione in linea nei tuoi calcoli raster.

Lo strumento Calcola valori utilizza il seguente codice Python, nota che sto restituendo un valore intero nel mio esempio, potresti voler usare float? La variabile v1 è l'indice 0 e v2 è l'indice 1. Sono questi v1 e v2 che usi nel tuo calcolo raster.


Estrarre dati da HTML con BeautifulSoup

Al giorno d'oggi tutti parlano di dati e di come aiutano ad apprendere modelli nascosti e nuove intuizioni. Il giusto insieme di dati può aiutare un'azienda a migliorare la propria strategia di marketing e questo può aumentare le vendite complessive. E non dimentichiamo l'esempio popolare in cui un politico può conoscere l'opinione pubblica prima delle elezioni. I dati sono potenti, ma non sono gratuiti. Raccogliere i dati giusti è sempre costoso, pensa a sondaggi o campagne di marketing, ecc.

Internet è un pool di dati e, con il giusto insieme di competenze, è possibile utilizzare questi dati in modo da ottenere molte nuove informazioni. Puoi sempre copiare e incollare i dati nel tuo file excel o CSV, ma anche questo richiede tempo e denaro. Perché non assumere uno sviluppatore di software che può ottenere i dati in un formato leggibile scrivendo un po' di jiber-jabber? Sì, è possibile estrarre dati dal Web e questo "jibber-jabber" si chiama Raschiare il web.

Secondo Wikipedia, Web Scraping è:

Lo scraping web, la raccolta web o l'estrazione dei dati web sono dati scraping utilizzati per estrarre dati da siti web

BeautifulSoup è una popolare libreria fornita da Python per raschiare dati dal web. Per sfruttarlo al meglio, è sufficiente avere una conoscenza di base dell'HTML, che è trattata nella guida.


Esempio 1: utilizzo di una tabella di valori

Alcune note sull'esempio 1

In questo primo esempio, ho scelto -2, 0 e 2 come coordinate x.

Dopo aver sostituito quei valori nell'equazione: y = 2x +1, ho trovato che i miei valori y erano: -3, 1 e 5.

Pertanto, le coppie ordinate che ho trovato sul mio grafico erano: (-2,-3), (0,1) e (2,5).

Ho tracciato quei punti sul mio grafico.

Quindi ho usato il mio righello e ho tracciato una linea retta attraverso quei punti. Questa è la linea per l'equazione, y = 2x +1.

Se avessi fatto questo problema da solo, potresti aver trovato tre punti diversi usando la tabella dei valori. Va bene, perché anche se i tuoi tre punti sono diversi, la tua linea sarà sempre la stessa!

Possiamo anche trovare altre soluzioni per l'equazione semplicemente leggendo il grafico. Vedo che (3,7) è un punto sul grafico. Se sostituisco 3 per x nell'equazione, otterrò 7 come coordinata y.

Questa linea va avanti all'infinito, quindi ci sono infinite soluzioni per l'equazione.

Diamo un'occhiata a un altro esempio.


Estrazione di più valori dalla tabella in ArcGIS ModelBuilder? - Sistemi Informativi Territoriali

Le sovvenzioni per la sicurezza del traffico autostradale della National Highway Traffic Safety Administration (NHTSA) per l'anno fiscale (FY) 2013 sono state stimate in 𤙃 milioni [ 1 ]. Gli incidenti automobilistici sono di fondamentale importanza negli Stati Uniti e un'enorme quantità di risorse viene spesa per la sicurezza del traffico autostradale. Sulla base delle proiezioni statistiche del Fatality Analysis Reporting System (FARS) di NHTSA, le vittime del traffico sono aumentate da 32.367 nel 2011 a 34.080 nel 2012, con un aumento del 5,3%. In effetti, il 2012 è stato il primo anno dal 2005 ad avere un aumento di anno in anno di vittime, il che indica che è necessario un lavoro considerevole per migliorare la sicurezza stradale [ 2 ].

identificare i luoghi con potenziale di miglioramento della sicurezza,

diagnosticare le posizioni identificate per il miglioramento della sicurezza e la selezione delle contromisure,

stimare il costo delle contromisure,

stimare i benefici delle contromisure.

Questi nuovi strumenti affrontano molte limitazioni dei tradizionali strumenti di analisi della sicurezza, inclusi i bias associati a volume, lunghezza del segmento e regressione alla media, nonché forme di modello errate e la mancanza di misure di affidabilità [ 4 – 9 ]. Al fine di affrontare queste limitazioni, strumenti all'avanguardia, tra cui Safety Analyst, utilizzano metodi analitici che richiedono set di dati completi per fornire informazioni sufficienti e acquisire intricate caratteristiche spazio-temporali e interazioni nel sistema del traffico.

Non tutti i gruppi interessati sono a conoscenza della disponibilità dei dati in ciascuna divisione.

Non c'è coerenza in termini di come le informazioni vengono archiviate e i dati normalizzati.

Tipicamente, i dataset vengono sviluppati senza considerare esplicitamente le esigenze delle varie applicazioni utilizzate dalle diverse divisioni.

Nuovi strumenti emergenti, come Safety Analyst, richiedono la raccolta di dati da più divisioni. Inoltre, questi strumenti necessitano di dati che in genere non sono disponibili.

La formazione di ingegneri e professionisti della sicurezza stradale sull'uso di nuove applicazioni, come Safety Analyst, richiede che le applicazioni corrispondenti siano pronte per l'uso con tutti i dati necessari disponibili.

Il coordinamento con altre agenzie di pubblica sicurezza in tutto lo stato richiede un approccio globale per integrare e consentire l'accesso ai dati, nonché per fornire capacità di manutenzione.

È necessario un approccio globale che utilizzi strumenti all'avanguardia per raccogliere dati e gestire le esigenze di dati esistenti, che sono significative, nonché per sviluppare soluzioni migliori. La letteratura esistente è popolata con esempi sulla raccolta dei dati e sui metodi di integrazione per le applicazioni di trasporto, compresi i framework per i sistemi di informazione geografica (GIS) [ 12 – 18 ], i sistemi di database/data-warehouse [ 19 – 24 ] e la visualizzazione strumenti [ 25 – 27 ]. Tuttavia, la maggior parte dei DOT non ha accesso a un sistema di database completo che consenta loro di sfruttare appieno gli strumenti esistenti, incluso Safety Analyst. Con un tale sistema di database, le agenzie possono essere in grado di sviluppare funzioni di prestazione di sicurezza (SPF) che sono specifiche della giurisdizione in modo da poter stimare le misure di prestazione in modo più accurato. Studi precedenti mostrano che le metodologie per sviluppare tali sistemi sono relativamente limitate.

Molti DOT statali hanno grandi quantità di dati. Tuttavia, è un compito titanico per loro identificare le fonti di dati, sviluppare i sistemi per integrarle e sviluppare i database, gli strumenti di analisi e i sistemi di visualizzazione. Questo studio ha creato e testato un sistema di database e strumenti per elaborare, integrare, controllare e caricare i dati in modo da fornire dati a più applicazioni di trasporto con particolare attenzione all'analista della sicurezza. Gli strumenti sviluppati in questo studio possono essere utilizzati per creare sistemi di database simili per qualsiasi regione e/o per espandere database esistenti. Un recente sondaggio a livello nazionale [ 28 ] ha rivelato che uno dei principali deterrenti per l'utilizzo di Safety Analyst è l'indisponibilità di fonti di dati complete e di metodi noiosi per l'importazione e l'elaborazione dei dati. Quindi, considerando le notevoli risorse investite nello sviluppo di Safety Analyst e il significativo vantaggio potenziale di condurre la gestione della sicurezza del traffico utilizzando tale strumento, i contributi di questo studio sono tempestivi e possono facilitare l'aumento dell'uso e dei vantaggi di Safety Analyst.

La Figura 1 illustra la struttura concettuale per il sistema di database proposto e un sistema di visualizzazione complementare con il lavoro corrispondente è stato pubblicato altrove [29]. I dati grezzi sono stati elaborati utilizzando strumenti di gestione dei dati per creare un database completo, normalizzato e ottimizzato. Gli strumenti di visualizzazione vengono utilizzati per fornire i dati richiesti da ciascuna applicazione nel formato e nel livello di risoluzione corrispondenti. Gli strumenti di visualizzazione vengono utilizzati per fornire più rappresentazioni grafiche degli input e degli output per ciascuna applicazione. Molti strumenti di analisi attualmente esistenti, incluso Safety Analyst, non forniscono funzionalità di visualizzazione. Considerando la natura spaziale del problema, questa era una limitazione significativa.

Quadro concettuale per il database completo e il sistema di visualizzazione sviluppato in questo studio.

Safety Analyst fornisce una suite di strumenti analitici per identificare e gestire i miglioramenti della sicurezza a livello di sistema [ 5 ]. Safety Analyst utilizza un metodo empirico bayesiano (EB) come alternativa ai metodi tradizionali di analisi della sicurezza, come frequenza, frequenza, tasso critico o indice di crash. L'approccio EB fornisce un meccanismo che non può essere affrontato utilizzando i metodi tradizionali e che affronta problemi associati a bias, forma del modello errata e mancanza di una misura di affidabilità [ 4 – 10 ].

Safety Analyst si compone di quattro strumenti: amministrazione, gestione dei dati, analisi e implementazione delle contromisure. Lo strumento di amministrazione include componenti federali, di agenzia e di sistema [ 30 ]. Il componente federale fornisce l'accesso alle definizioni dei sottotipi di sito predefiniti, alla gestione delle contromisure e alle funzioni di prestazione di sicurezza (SPF) nazionali predefinite. Il componente dell'agenzia fornisce l'accesso a varie operazioni, tra cui l'aggiunta, la modifica e la rimozione degli attributi dei dati, ad eccezione degli attributi dei dati obbligatori. Inoltre, questo componente consente la modifica degli SPF nazionali con SPF specifici dell'agenzia. Il componente di sistema mantiene database locali o remoti e combina il database con componenti federali e di agenzia.

I database locali o remoti possono essere importati utilizzando lo strumento di gestione dei dati [ 30 ]. Attualmente, Safety Analyst supporta due meccanismi di base per l'importazione dei dati: l'importazione di file e la mappatura da database a database. Per i DOT che mantengono un inventario completo dei dati in un sistema di gestione del database (DBMS) conforme al linguaggio di query strutturato (SQL), il meccanismo di mappatura da database a database è la migliore alternativa con cui caricare i dati in Safety Analyst. Gli strumenti di visualizzazione sviluppati in questo studio forniscono questa funzionalità. Per i DOT che non mantengono un database con tutti i dati richiesti per Safety Analyst, gli strumenti di gestione dei dati sviluppati in questo studio possono essere utilizzati per generare un DBMS con tutti i dati richiesti.

L'importazione di file è un meccanismo meno desiderabile perché non fornisce tutte le capacità di avere i dati in un DBMS. Safety Analyst supporta file di inventario dei dati in formati estesi per linguaggio di markup (xml) e valori separati da virgole (csv). Tuttavia, i file di inventario devono soddisfare un formato particolare. È improbabile che i DOT abbiano set di dati xml o csv prontamente disponibili che soddisfino il formato richiesto. Pertanto, si consiglia di sviluppare un DBMS per Safety Analyst.

Modulo Network Screening: questo modulo identifica e classifica i siti utilizzando il metodo EB per potenziali miglioramenti della sicurezza.

Modulo di selezione di diagnosi e contromisure: aiuta a diagnosticare problemi di sicurezza in siti specifici, utilizzando le risposte fornite dall'utente per una serie di domande integrate. Sulla base della diagnosi, l'utente può selezionare contromisure per ridurre la frequenza e la gravità degli incidenti in siti specifici.

Modulo di valutazione economica e classificazione delle priorità: fornisce una valutazione economica di una contromisura specifica per un sito specifico o di più contromisure alternative per più siti. Inoltre, fornisce una classificazione prioritaria dei siti e dei progetti di miglioramento proposti in base alle stime dei benefici e dei costi.

Modulo contromisure implementate: questo modulo fornisce valutazioni prima/dopo dei miglioramenti di sicurezza implementati. Sono necessari i dati per i progetti di costruzione e le contromisure implementate. Questi dati possono essere importati utilizzando lo strumento di implementazione delle contromisure.

I dati critici per eseguire studi sulla sicurezza del traffico includono incidenti, carreggiate, controllo e flusso del traffico. È stato sviluppato un piano completo per la raccolta dei dati per ottenere i dati disponibili da varie agenzie statali del Nevada, sulla base del Model Minimum Uniform Crash Criteria (MMUCC) e del Model Inventory of Roadway Elements (MIRE) [31, 32]. Sulla base di queste linee guida, erano necessari circa 150 attributi di dati per lo sviluppo di un database di sicurezza completo. Non tutti i dati sono stati richiesti da Safety Analyst, tuttavia, in questo studio, è stato sviluppato un dizionario di dati per identificare esplicitamente i dati obbligatori per Safety Analyst [4, 30], come mostrato nella Figura 2 .

Dati obbligatori richiesti dall'analista della sicurezza.

La maggior parte dei dati nella Figura 2 è disponibile da varie fonti DOT, inclusi i sistemi di riferimento lineare (LRS) del sistema di monitoraggio delle prestazioni dell'autostrada FHWA (HPMS) dei modelli della domanda di viaggio (TDM) delle reti stradali e dei set di dati di intersezione, volume di traffico e incidenti [ 26]. Per questo studio, i dati per i segmenti stradali e le rampe sono stati ottenuti da LRS, HPMS e TDM. I dati sugli incidenti sono stati ottenuti dal Nevada Accident and Citation Tracking System (NCATS). Il traffico giornaliero medio annuo (AADT) è stato raccolto dal Traffic Records Information Access (TRINA) di NDOT.

Una rete stradale è la mappa centrale dei percorsi in un GIS LRS. La maggior parte dei DOT statali ha due livelli di reti stradali, un set di dati a livello statale (SDS) e un set di dati a livello di contea (CDS). L'SDS può essere utilizzato per gli aiuti federali e le strade del sistema autostradale nazionale in Safety Analyst, e il CDS può essere utilizzato per le arterie secondarie a livello di contea e per le strade di raccolta principali e secondarie. In genere, una rete stradale SDS è simile a un layer di percorsi HPMS. Quando entrambe le reti stradali SDS e CDS non sono disponibili, il layer dei percorsi HPMS in LRS [ 33 ] può essere utilizzato con alcune modifiche.

Per questo studio è stata utilizzata la rete stradale CDS in LRS, che includeva un sistema aggiuntivo, l'identificazione RouteMaster (RMID), un identificatore univoco per referenziare il percorso nella rete stradale. RMID migliora la capacità di fare riferimento ad altre fonti di dati alla rete stradale. I dati della rete stradale includono l'ID del segmento, RMID, il tipo di strada, la contea, il traguardo di inizio e fine del segmento, la direzione cardinale (la direzione in cui inizia e finisce la strada) e la lunghezza del segmento.

Il sistema di monitoraggio delle prestazioni stradali è un sistema a livello nazionale gestito dall'FHWA e include dati sull'estensione, le condizioni, le prestazioni, l'uso e le caratteristiche operative delle autostrade statali e di alcune non statali [ 33 ]. Il modello di dati HPMS dell'FHWA, che è in un framework GIS, fornisce le relazioni spaziali tra gli elementi dei dati. L'FHWA incarica i DOT statali di presentare dati HPMS completi, tempestivi e accurati ogni anno [ 33 ]. Quindi, questi dati, integrati con altre fonti di dati, possono essere disponibili per indicare i DOT per lo sviluppo del database richiesto per Safety Analyst.

Per questo studio sono stati utilizzati i livelli di dati HPMS del Nevada, inclusi il controllo degli accessi, il tipo di struttura, la classificazione funzionale, il limite di velocità, le corsie di transito, l'AADT e il codice urbano.

Di solito, le organizzazioni di pianificazione metropolitana urbana (MPO) dispongono di un TDM basato su GIS per la pianificazione dei trasporti e i programmi di miglioramento dei trasporti. I dati di questo modello, come numero di corsie, limite di velocità, controllo degli accessi, classificazione funzionale, prefisso, direzione di marcia, unidirezionale o bidirezionale e configurazione della rampa, possono essere utilizzati quando i dati HPMS non sono disponibili. Se non è disponibile una rete stradale distinta a livello di contea, è possibile utilizzare una rete stradale TDM per i dati su tratti stradali, tratti di rampa, lunghezze e punti miliari.

Per questo studio, è stato utilizzato il TDM della Regional Transportation Commission of Southern Nevada (RTC-SN) per ottenere dati non disponibili nei livelli HPMS.

Ogni anno, l'NHTSA spende gran parte del suo budget per le sovvenzioni per la sicurezza stradale per il programma di raccolta dati sugli incidenti [ 1 ]. La raccolta dei dati sugli incidenti dagli stati deve essere basata sulle linee guida MMUCC. Anche i dati sugli arresti anomali richiesti da Safety Analyst si basano sulle linee guida MMUCC. Questo studio ha utilizzato i dati di NCATS per gli incidenti localizzati (crash con coordinate) e le caratteristiche degli incidenti per gli anni dal 2007 al 2011.

Safety Analyst richiede AADT per tutti i segmenti da utilizzare in un'analisi a livello di rete. Spesso, tuttavia, questi dati non sono disponibili per tutte le classi stradali. In genere, i DOT statali raccolgono dati per stimare gli AADT per classi funzionali elevate di strade, come autostrade e strade statali. La raccolta di dati simili per le arterie e le strade locali è un processo lungo e costoso. Questo studio ha utilizzato un modello di assegnazione del traffico dinamico basato sulla simulazione, DynusT [ 34 , 35 ], per stimare l'AADT per quelle località con AADT mancante per l'ultimo anno. Questi AADT sono stati proiettati per cinque anni utilizzando fattori temporali sviluppati da conteggi a lungo termine.

In genere, le agenzie di contea o le organizzazioni di pianificazione metropolitana (MPO) dispongono di dati per le intersezioni segnalate, inclusa la posizione e il tipo di informazioni di controllo. Tuttavia, i dati per gli incroci controllati dalla fermata non sono comuni e devono essere raccolti. In questo studio sono stati sviluppati una metodologia e uno strumento per raccogliere in modo efficiente i dati di controllo degli arresti. I dati sulle intersezioni segnalate sono stati ottenuti dal sistema di trasporto autostradale e arterioso (FAST), una divisione di RTC-SN.

La tabella 1 mostra i file di origine generalmente disponibili negli stati DOT e/o MPO, nonché i dati in quei file richiesti da Safety Analyst. Con queste informazioni, le agenzie possono iniziare a raccogliere questi file per sviluppare un database degli analisti della sicurezza. Le agenzie possono scegliere (1) file HPMS con dati per reti stradali e incidenti per strade gestite da DOT statali o (2) file HPMS con dati per reti stradali, TDM, incidenti e incroci per strade a livello di contea.

File di origine e relativi elementi di dati per creare un database di sicurezza.

Esiste uno spostamento/divario spaziale tra i file di forma GIS di vari set di dati, come HPMS, rete stradale CDS e livelli TDM.

Non sono presenti ID comuni tra HPMS, rete stradale CDS e livelli TDM.

Le lunghezze di segmentazione differiscono nei livelli HPMS e nella rete stradale CDS.

Non esiste un RMID univoco tra i set di dati.

Alcuni dati sono rappresentati in modo errato, come le configurazioni delle rampe e il numero di corsie.

Alcuni problemi nei set di dati sono comuni perché non c'è coerenza nella formattazione e nell'archiviazione dei dati tra divisioni o reparti. Inoltre, i dati raccolti possono o meno essere stati archiviati nello stesso formato geografico, come misurazioni cardinali, sistemi di coordinate e geometria. ArcGIS ModelBuilder [ 36 ] è stato utilizzato per sviluppare gli strumenti automatizzati per risolvere questi problemi, come verrà discusso nella sezione seguente.

3. Strumenti di gestione dei dati 3.1. Strumento di raccolta dati

Anche se esistono più origini dati che forniscono una grande quantità di dati richiesti per Safety Analyst, vari attributi dei dati erano mancanti o incompleti, inclusi il tipo di rampa, la configurazione della rampa e il tipo di controllo alle intersezioni. La maggior parte dei dati mancanti sono stati raccolti utilizzando Google Earth e le informazioni mancanti sono state osservate e codificate anche in Google Earth. È stato sviluppato uno strumento di raccolta dati per estrarre i dati e creare file di forma ArcGIS con tutte le informazioni. Questa capacità ha facilitato lo sviluppo e l'integrazione del database.

L'analista della sicurezza ha richiesto che tutti i dati raccolti fossero integrati utilizzando (1) un percorso e un traguardo (2) un percorso, una contea e un traguardo (3) un percorso, una sezione e una distanza o (4) una sezione e una distanza. Questo studio ha utilizzato un indice di route e milepost per integrare tutti i dati perché alcuni dei set di dati avevano queste informazioni. Sebbene siano disponibili vari metodi e strumenti commerciali [ 12 – 18 ] per integrare i dati, in questo studio sono stati sviluppati strumenti di integrazione che utilizzano ArcGIS ModelBuilder per ottenere il controllo totale del processo e fornire una maggiore automazione.

3.2. Strumento ArcGIS ModelBuilder

Modificare i valori dei parametri, come il raggio del buffer oi limiti di tolleranza, ed eseguire nuovamente i modelli.

Aggiungi più processi, come i componenti per un buffer o un'intersezione, oltre ai dati.

Elimina processi e dati intermedi.

Visualizza ed esplora i risultati in ArcMap.

uno strumento di mappatura che mappa spazialmente i segmenti della rete stradale agli elementi di dati in HPMS, quando c'è spostamento della geometria e nessun campo comune tra di loro

uno strumento di riferimento lineare che crea un indice del traguardo per ogni incidente rispetto a segmenti stradali, rampe o intersezioni

uno strumento di segmentazione dinamica che rompe/unisce i segmenti nelle posizioni richieste.

3.3. Interfaccia per la mappatura degli attributi dei dati

È stata sviluppata un'interfaccia per la mappatura degli attributi di dati per popolare il database, utilizzando i dati provenienti da fonti esistenti. L'interfaccia ha stabilito la mappatura per ogni attributo e le origini dati dagli attributi dei dati del file utente agli attributi del database corrispondenti nelle tabelle del database. Questa interfaccia ha consentito l'utilizzo di file di dati esistenti senza alcuna modifica. L'interfaccia utilizzava un foglio di calcolo Microsoft Excel (.xlsx), che è un file di metadati con quattro colonne. La prima e la seconda colonna includevano rispettivamente il nome della tabella del database e il nome degli attributi. Questi nomi sono stati corretti e non è stato necessario cambiarli. La terza e la quarta colonna includevano rispettivamente il nome del file dell'utente (agenzia) e il nome dell'attributo.

La tabella 2 illustra il file di metadati. Solo il nome del file utente e il nome dell'attributo del file utente devono essere compilati dall'utente. Diversi DOT memorizzano i loro dati in vari file e l'ID univoco comune mette in relazione tali file e attributi. Ad esempio, Nevada ha attributi della carreggiata in file come CDS_Network, Las Vegas Median, HPMS�ss e HPMS_SpeedLimit. Una volta compilato un file di metadati, l'interfaccia di mappatura degli attributi dati viene utilizzata per inserire e memorizzare i dati dal file utente nelle tabelle e negli attributi del database corrispondenti.

Esempio del file di metadati per la mappatura dei dati.

Gli input a un database esistente possono essere nuovi o un aggiornamento di dati inseriti in precedenza. È stato sviluppato uno strumento di istanziazione e inserimento dei dati per inserire i dati nel database, tenendo in considerazione le interdipendenze dei dati. I file di input sono stati trasmessi in streaming e analizzati con una semplice interfaccia di programmazione dell'applicazione (API) per un parser XML, noto anche come SAX, che è stato utilizzato per memorizzare i dati in una matrice.

Quando viene letta una riga nella matrice, viene eseguita una query “select” sul database per determinare l'esistenza di un oggetto. Se esiste un oggetto, viene eseguito un aggiornamento: viene istanziato un oggetto Java e i suoi campi vengono aggiornati con i valori nel file di input. Quindi, il metodo di aggiornamento di questo oggetto Java viene elaborato per aggiornare il database. Se non ci sono oggetti corrispondenti, viene creata un'istanza di un nuovo oggetto e inserito in una classe 𠇎ntityManager”. Una volta che tutti i file sono stati analizzati e tutti gli oggetti sono stati istanziati, i dati possono essere inseriti nel database.

La classe 𠇎ntityManager” gestisce automaticamente le priorità delle tabelle per soddisfare le interdipendenze tra le tabelle. L'immissione di dati senza utilizzare EntityManager potrebbe causare un errore di inserimento dei dati o il danneggiamento del database a causa di una violazione delle interdipendenze tra le tabelle. Ad esempio, i dati sui veicoli incidentati dipendono dai dati sugli incidenti ed è necessario un meccanismo per tenere conto di questa dipendenza.

Lo schema del database fornisce la struttura di un DBMS, che è descritto in un linguaggio di modellazione formale. Gli attuali linguaggi di modellazione del database includono il modello entità-relazione (ER) e il linguaggio di modellazione unificato (UML). ER è un modello di dati concettuale che vede il mondo reale come entità e relazioni. I costrutti di base in un modello ER sono le entità, gli attributi e le relazioni che si trovano in un diagramma ER. Il modello ER si concentra sulla fase di progettazione concettuale e logica del database. Può essere utilizzato per sviluppare sistemi di database conformi a SQL, che sono convenienti per gli utenti che non hanno familiarità con le operazioni di database [ 37 ].

L'UML è un linguaggio di modellazione visiva orientato agli oggetti utilizzato per specificare, visualizzare, analizzare e controllare gli oggetti di un sistema software. Viene utilizzato per comprendere, progettare, sfogliare, configurare, mantenere e controllare le informazioni sui sistemi software [ 37 ]. Questo studio ha utilizzato il modello ER per tre importanti ragioni. Innanzitutto, Safety Analyst supporta solo database conformi a SQL. In secondo luogo, i diagrammi ER, che rivelano il design del database, sono più facili da capire rispetto ai diagrammi UML. In terzo luogo, è più probabile che la maggior parte delle applicazioni simili a Safety Analyst siano compatibili con un modello ER.

Il modello di dati fisici per il database è stato costruito utilizzando il modello ER, che indica come i dati dovrebbero essere rappresentati e archiviati da un DBMS, come Oracle, MySQL, SQLServer o Derby [ 38 ]. In questo studio, l'utente aveva la possibilità di scegliere MySQL o Derby come sistema di database completo. Tuttavia, per Safety Analyst View, è stato abilitato solo Derby perché MySQL non è compatibile con Safety Analyst. Entrambi i database sono DBMS open source, conformi a SQL e forniscono tutte le funzionalità necessarie per un DBMS affidabile, flessibile e robusto. Gli script SQL sono stati sviluppati per generare tabelle di database e le relazioni tra di esse in MySQL e Derby.

È stato creato il modello dati fisico per il database, quindi il database è stato popolato con i dati. L'inserimento dei dati è un processo che può avvenire una volta, periodicamente o sporadicamente. La metodologia per popolare il database è stata progettata per tenere conto della maggior parte dei potenziali scenari che potrebbero presentarsi. Ad esempio, sono state progettate e create varie tabelle vuote per dati futuri che potrebbero diventare disponibili e/o desiderabili.

Un diagramma completo delle relazioni di entità, comprese le tabelle, la chiave primaria e le chiavi esterne, del database è fornito nella Figura 3 . Questo studio ha utilizzato la notazione del piede di corvo per illustrare entità e relazioni nel database proposto. Un'entità è un contenitore di archiviazione dati (tabella) con una raccolta di attributi. In Figura 3, INCIDENTE è una delle entità. Ha un identificatore di chiave primaria contrassegnato con PK, che identifica in modo univoco un'istanza di un'entità e un identificatore di chiave esterna contrassegnato con FK, che identifica in modo univoco una riga di un'altra entità. Una relazione illustra un'associazione tra due entità ed è costituita da indicatori delle regole di business. Nella Figura 3, la relazione tra le entità nel database è illustrata utilizzando le linee e i simboli blu per gli indicatori di inizio e fine delle regole di business. I simboli utilizzati sono due linee verticali per “ono e un solo” indicatore, cerchio con zampe di gallina per “zero o molti,” una linea verticale con zampe di gallina per “ono o molti,” e cerchio con una linea verticale per “zero o un indicatore.” Ad esempio, in Figura 3, zero o molti “SEGMENT ID” da �IDENT” entità sono associati all'unico e solo “SEGMENT ID' x201d dall'entità “ROADWAY SEGMENT”. Per maggiori dettagli sul diagramma ER, i lettori possono fare riferimento alla modellazione dei dati con diagrammi ER di Riccardi [ 39 ]. Inoltre, la Figura 4 illustra una struttura di dati dettagliata utilizzando un modello di dati fisici che include tabelle, chiavi primarie ed esterne e altri attributi per il database di sicurezza proposto.

Diagramma delle relazioni tra entità per il database di sicurezza proposto.

Un modello di dati fisici per il database di sicurezza.

Tali strumenti di analisi come Safety Analyst richiedono dati in un formato particolare. Ad esempio, Safety Analyst richiede un tipo di gravità dell'incidente sotto forma di “K” per lesioni mortali, 𠇊” per lesioni gravi e “P” per danni materiali. Tuttavia, è improbabile che le origini dati utilizzino la stessa formattazione. Avere l'obbligo di seguire una formattazione particolare è una delle barriere principali per i DOT nell'utilizzo di Safety Analyst [ 28 ]. Il database sviluppato in questo studio memorizza il tipo di gravità dell'incidente sotto forma di morte, lesioni o danni alla proprietà.

È stato sviluppato uno strumento di visualizzazione per Safety Analyst per fornire una visualizzazione del database coerente con i requisiti di Safety Analyst. La tabella 3 illustra una parte di un foglio MS Excel utilizzato per stabilire la mappatura tra la vista generale del database e la vista Analista della sicurezza. Nome tabella database, Nome attributo e Valori attributo sono stati mappati tra le due viste. Ad esempio, nella Tabella 3 , il nome della tabella del database è �ident,” il nome dell'attributo è “severity,” e i valori degli attributi sono “lesione fatale,” “lesione grave,” e “property damage.” I corrispondenti valori di Safety Analyst sono Accident accidentSeverity1 e K, A o P. Il back-end dello strumento di visualizzazione per Safety Analyst ha un parser MS Excel che trasmette i dati, fornisce la mappatura, e memorizza i dati in una matrice. Vengono create HashMaps e viene stabilita una relazione tra il database e la vista Safety Analyst.

Mappatura tra una vista generale e quella dell'analista della sicurezza.

Il database completo e la visualizzazione del database di Safety Analyst per Clark County, Nevada, sono stati sviluppati con gli strumenti di gestione dei dati proposti e popolati utilizzando le origini dati descritte in precedenza. Utilizzando gli strumenti di gestione dei dati, la vista del database è stata mappata, importata e postelaborata. I fattori di calibrazione per i vari sottotipi di sito erano (1) tratti di autostrada urbana a quattro e sei corsie (2) tratti di autostrada urbana nelle aree di interscambio con quattro e sei corsie (3) intersezioni urbane segnalate a quattro e tre lati (4) fermata urbana -controllato con intersezioni a quattro e tre gambe e (5) segmenti arteriosi a due, quattro e sei corsie. Questi fattori sono stati ottenuti calibrando gli SPF di default federali, utilizzando i dati del Nevada. L'analisi di screening della rete è stata eseguita utilizzando lo strumento analitico di Safety Analyst per determinare i siti con il maggior potenziale di miglioramenti della sicurezza.

le frequenze di crash previste ed in eccesso, con ricerca dei picchi sui tratti stradali utilizzando limiti per il coefficiente di variazione (CV) [ 8 , 30 , 40 ]

una finestra scorrevole su segmenti di carreggiata

screening dei corridoi [ 8 , 30 , 40 ].

analisi dei segmenti e delle intersezioni stradali e di rampa

analisi dei segmenti stradali sulla base di classificazioni funzionali

analisi degli incroci segnalati e controllati dalla fermata

analisi dei segmenti di rampa.

Per illustrare i risultati, questo articolo esamina due casi di studio che hanno utilizzato un'eccessiva frequenza di incidenti come misura delle prestazioni di sicurezza per vedere se gli incidenti sono stati ridotti se è stato implementato un miglioramento della sicurezza [ 30 ]. Il primo caso di studio ha identificato i 5 migliori siti, compresi i segmenti stradali e di rampa, nonché gli incroci segnalati e controllati dalla fermata, che hanno il potenziale per miglioramenti della sicurezza.

Sono state eseguite due analisi, con SPF predefiniti e calibrati. L'eccesso di frequenza degli incidenti è stato calcolato per gli incidenti mortali e tutti gli incidenti con lesioni, con la ricerca dei picchi sui segmenti stradali con limiti di coefficiente di variazione (CV) per l'intera rete. Il tipo di screening con ricerca del picco è stato utilizzato perché aveva statistiche del limite CV e una lunghezza minima della finestra di un segmento di 0,1 mi. Quindi, l'esatta sezione/finestra del sito che aveva il potenziale per il miglioramento della sicurezza potrebbe essere determinata per implementare una contromisura. Sette siti su 10 hanno dimostrato di differire nei primi posti. La tabella 4 mostra i risultati del primo caso di studio, inclusi i primi 10 siti (i primi 10 ranghi) che hanno il potenziale per miglioramenti della sicurezza. Questi siti erano costituiti da due sottotipi di sito, segmenti a quattro corsie di un'autostrada urbana nell'area di interscambio (sottotipo di sito 158) e segmenti divisi a più corsie di un'arteria urbana (sottotipo di sito 153). Il sottotipo di sito 158 aveva un fattore di calibrazione inferiore, 0,17, il che implica che queste strade hanno subito meno incidenti, in media, rispetto alle strade utilizzate per sviluppare gli SPF federali per l'analista della sicurezza. Al contrario, il sottotipo di sito 153 aveva un fattore di calibrazione più elevato, 4,27, il che implica che queste strade hanno subito incidenti più elevati, in media, rispetto alle strade utilizzate per sviluppare gli SPF federali. Pertanto, la calibrazione annuale degli SPF svolge un ruolo significativo nei siti di screening che hanno un potenziale maggiore di miglioramenti della sicurezza.

Risultati dello screening di rete di base con ricerca dei picchi sui segmenti stradali e test CV dell'analista della sicurezza per incidenti mortali e tutti gli incidenti su segmenti stradali e rampe, nonché incroci, utilizzando SPF predefiniti e calibrati.

Tipo di analisi Rango Sottotipo di sito Itinerario Posizione con il più alto potenziale di miglioramento della sicurezza
Posizione di partenza Luogo di fine Crash medi osservati ∗ Frequenza prevista di crash ∗ Frequenza di crash eccessiva
Frequenza in eccesso ∗ Varianza ∗ ∗ Numero di vittime Numero di infortuni
SPF predefinito
fattore di calibrazione (CF) = 1.0
1 158 IR15 40.223 40.323 267.05 21.49 219.41 408.32 2.04 312.21
2 153 SR589 3.311 3.411 154.14 4.63 139.86 149.66 1.51 211.41
3 158 IR15 41.386 41.486 173.08 27.10 133.70 609.28 1.24 190.24
4 158 IR15 35.112 35.768 142.14 23.27 107.04 451.76 0.99 152.32
5 153 SR612 4.605 5.124 114.01 5.28 102.18 182.06 1.10 154.46
6 153 SR593 0.889 1.574 103.06 9.51 90.25 544.53 0.97 136.42
7 153 SR159 29.664 30.193 101.96 8.06 90.19 396.04 0.97 136.33
8 153 SR612 5.124 5.633 98.84 2.63 86.57 53.97 0.93 130.86
9 153 SR593 3.784 6.361 94.92 3.99 84.30 107.53 0.91 127.42
10 153 Las Vegas Boulevard. 26.032 26.112 87.10 6.22 75.67 239.96 0.82 114.37
SPF . calibrato
Sottotipo di sito 158 CF = 0,17
Sottotipo di sito 153 CF = 4,27
1 158 IR15 40.223 40.323 291.56 20.43 238.49 379.89 2.21 339.36
2 158 IR15 41.386 41.486 189.06 25.76 147.70 558.06 1.37 210.18
3 153 SR589 3.311 3.411 156.48 19.18 135.02 2165.74 1.46 204.09
4 158 IR15 35.668 35.768 155.78 22.12 118.56 414.43 1.10 168.71
5 153 SR612 5.324 5.424 100.37 10.91 87.08 707.86 0.94 131.63
6 158 IR15 41.567 41.667 118.14 24.19 84.46 483.08 0.78 120.18
7 153 Decatur Boulevard. 4.624 4.64 106.95 8.99 77.99 483.52 0.84 117.89
8 158 IR15 41.667 41.767 105.53 22.24 74.20 409.34 0.69 105.58
9 153 SR596 5.293 5.393 82.73 7.85 72.04 371.99 0.78 108.89
10 153 Maryland Pkwy. 9.794 9.894 82.69 11.22 69.51 745.94 0.75 105.07

∗ Crash/mi/anno ∗ ∗ Crash/mi 2 /anno.

Utilizzando SPF predefiniti e calibrati, il secondo studio di caso ha identificato i siti di intersezione con il potenziale di miglioramenti per quanto riguarda sia le lesioni mortali che tutte le lesioni. È stata calcolata la frequenza di incidenti in eccesso per incidenti mortali e tutti gli incidenti con lesioni. Le figure 5(a) e 5(b) illustrano i primi 10 siti di intersezione (i primi 10 ranghi) con un potenziale miglioramento della sicurezza. Quando si analizzano gli SPF predefiniti e calibrati, due siti (cerchiati in rosso) hanno scambiato i ranghi 4 e 5 perché i siti con rango 3 e 4 avevano sottotipi di sito diversi, quindi sono stati utilizzati diversi fattori di calibrazione.

(a) Risultati di uno screening di rete di base per incidenti mortali e tutti gli incidenti agli incroci, utilizzando SPF predefinito, e (b) risultati dello screening di rete di base per incidenti mortali e tutti gli incidenti agli incroci, utilizzando SPF calibrati.

I primi 10 siti erano costituiti da due diversi sottotipi di sito, l'intersezione urbana segnalata a quattro tratti (sottotipo di sito 253) e l'intersezione urbana a tre tratti (sottotipo di sito 254). Il sottotipo di sito 253 aveva un fattore di calibrazione leggermente più alto, 1,08, e ha subito più incidenti rispetto alle intersezioni utilizzate per sviluppare gli SPF federali. Il sottotipo di sito 254 aveva un fattore di calibrazione inferiore, 0,64, il che implica che le intersezioni segnalate urbane a tre gambe hanno subito meno incidenti rispetto alle intersezioni utilizzate per lo sviluppo di SPF federali di tali siti.

Nei risultati, la frequenza di crash prevista era molto inferiore rispetto alla frequenza di crash osservata a causa dell'SPF predefinito in Safety Analyst. La frequenza prevista degli incidenti è stata una delle misure importanti per il calcolo della frequenza prevista o eccessiva degli incidenti con il metodo EB. A causa della natura urbana dell'area di studio, livelli più elevati di AADT (100.000 s) hanno peggiorato questi risultati.

Crea sottotipi di sito specificati dall'agenzia con diversi intervalli di AADT nello strumento di amministrazione e ricalibra i coefficienti.

Sulla base dei dati, sviluppa modelli di regressione del conteggio separati per i sottotipi di sito e inserisci i coefficienti nello strumento di amministrazione.

Il tipo di screening della ricerca del picco non era un buon parametro per i segmenti inferiori a 0.1 mi. Ha proporzionato le frequenze di crash previste/eccesso per 0.1 mi quando la lunghezza era inferiore a 0.1 mi. In questo caso, una finestra scorrevole era una scelta migliore perché aggregava e spostava la finestra su segmenti contigui per un ulteriore calcolo, proporzionava le frequenze di crash previste/eccesso per 0.3 mi, la lunghezza minima utilizzata per calcolare la misura delle prestazioni, quando il la lunghezza del sito era inferiore alla lunghezza della finestra.

In Safety Analyst, la ricerca del picco era migliore perché aveva il limite del coefficiente di variazione, mentre la finestra scorrevole no.

La ricerca del picco non era un buon parametro per i segmenti più lunghi. La ricerca di picco ha fornito un rank per sito, con una lunghezza della finestra di 0.1 mi. Altre finestre con la seconda frequenza di crash prevista/eccesso più alta sono state fornite in finestre aggiuntive, con segmenti più lunghi con più finestre aggiuntive. Tuttavia, la finestra scorrevole ha fornito ranghi consecutivi per lo stesso sito con varie finestre.

Per i siti con un numero maggiore di arresti anomali e una grande varianza, gli analisti potrebbero utilizzare frequenze di arresto anomalo previste o in eccesso.

Nessun particolare tipo di screening è stato preferito per l'intera analisi. Gli analisti sono incoraggiati ad analizzare un determinato elenco di siti utilizzando più combinazioni di screening di rete per trovare siti comuni dall'output. Quando lo stesso sito viene identificato utilizzando diversi metodi di screening, ciò rafforza il fatto che il sito merita ulteriori indagini [ 30 ].

6. Strumento di visualizzazione per l'analista della sicurezza

Le capacità di output fornite da Safety Analyst sono limitate alle tabelle che riportano i risultati nei formati HTML, PDF, RTF e CSV. Gli analisti devono dedurre i risultati da queste voluminose tabelle senza avere un'immagine del sito. Pertanto, è stato sviluppato uno strumento di visualizzazione [ 29 ] per fornire un significato migliore all'output, con capacità estese per report spaziali, grafici e modificabili. Per visualizzare i risultati utilizzando lo strumento di visualizzazione, l'utente può scegliere tra due metodi di visualizzazione alternativi: Google Maps e ArcGIS.Il vantaggio dell'utilizzo di Google Maps è la sua semplicità e disponibilità, il vantaggio di ArcGIS sono le sue capacità di modellazione e calcolo.

Per l'interfaccia di Google Maps, lo strumento di visualizzazione ha un front-end basato sul Web per l'interfaccia ArcGIS, lo strumento di visualizzazione è un'applicazione autonoma basata su script ArcPy. Entrambe le applicazioni forniscono un facile accesso a più schede. Le prime due schede visualizzano i risultati tabulari e una mappa con le posizioni spaziali. Inoltre, l'utente può interagire con il display grafico per eseguire operazioni di base come ingrandire, rimpicciolire e selezionare i siti. Nella seconda scheda, l'utente può scegliere il grafico a barre per le misure delle prestazioni di sicurezza, come le frequenze di crash osservate, previste e previste/eccesso per diversi siti.

L'interpretazione dei risultati tramite grafici è più semplice rispetto all'utilizzo di tabelle. L'utente può includere le posizioni spaziali del sito e i grafici a barre delle misurazioni delle prestazioni nel report modificabile dell'analista della sicurezza nella terza scheda. I risultati tabulari dello screening di rete forniti nella Tabella 4 sono difficili da utilizzare senza lo strumento di visualizzazione. Tuttavia, le Figure 5(a) e 5(b) illustrano le posizioni spaziali delle intersezioni utilizzando lo strumento di visualizzazione [29], determinato mediante screening di rete.

I vantaggi dello sviluppo e dell'utilizzo di un sistema di database completo per gli studi sulla sicurezza del traffico sono significativi. Questo studio ha sviluppato un sistema di database completo in grado di fornire dati a più applicazioni per l'ingegneria della sicurezza stradale e altre potenziali esigenze. Inoltre, ha fornito la metodologia e la guida per sviluppare un database dalle fonti di dati esistenti e prontamente disponibili dei DOT statali e/o degli MPO. Gli strumenti sviluppati per creare il database completo e la visualizzazione per Safety Analyst possono essere utilizzati da altre agenzie, poiché utilizzano software non commerciale. Questo sistema consente l'uso di strumenti di sicurezza del traffico all'avanguardia per supportare lo sviluppo dei requisiti federali e per sviluppare migliori soluzioni di sicurezza del traffico per problemi esistenti ed emergenti. Questi strumenti offrono risparmi significativi in ​​termini di tempo, denaro e vite.

In particolare, il sistema di database proposto ha la capacità di fornire dati a Safety Analyst, il software di gestione della sicurezza stradale all'avanguardia. Sebbene Safety Analyst offra enormi capacità di analisi, poche agenzie sfruttano queste capacità perché il software richiede esigenze di dati significative, sviluppo complesso degli input richiesti e mancanza di esperienza e conoscenza nella creazione degli input e nell'utilizzo del software [26]. Il sistema di database proposto, insieme ai suoi strumenti di gestione e visualizzazione dei dati, fornisce un supporto significativo per aggirare queste barriere. Questo sistema di database può essere utilizzato per sviluppare SPF specifici per giurisdizione per stimare le misure di performance in modo più accurato e preciso.

Questo studio potrebbe essere ampliato per sviluppare strumenti che creano diversi sottotipi di sito in base ai dati nella visualizzazione Analista sicurezza. Gli SPF potrebbero essere sviluppati per quei sottotipi di siti e i coefficienti potrebbero essere inseriti nello strumento di amministrazione per ottenere previsioni migliori per la frequenza degli incidenti. I metodi predittivi nella parte C del Manuale sulla sicurezza stradale [ 10 ] potrebbero essere utilizzati per sviluppare SPF. In questo caso, gli sviluppatori di Safety Analyst dovrebbero espandere le capacità di uno strumento di amministrazione per accogliere gli SPF multiparametrici specifici dell'agenzia e i relativi coefficienti.


Come utilizzare più set di dati in una singola regione Tablix in SSRS

Esistono molti casi in cui potrebbe essere necessario creare un report SSRS utilizzando due o più set di dati. Potrebbe anche essere necessario mostrare le informazioni di entrambi i set di dati nella stessa tabella del rapporto. Tuttavia, nel caso dei rapporti SSRS, una volta scelto un set di dati per la tabella, puoi scegliere i campi solo da quel set di dati, non dal secondo. Quindi, come puoi portare i valori dall'altro set di dati in questa tabella? Nel post di oggi, risponderemo a questa domanda!

Fortunatamente, c'è un modo per farlo. Usando l'esempio qui sotto, vediamo come è fatto...

Supponiamo di avere i seguenti due set di dati:

Nota che stiamo memorizzando Stato valori nel set di dati 1 e Regione (nuova regione) valori nel set di dati 2. Nel nostro esempio, dobbiamo creare un report con una tabella che mostri Nome, Paese, Stato e Regione, il che significa che dobbiamo combinare entrambi i set di dati. Lo faremo così:

1. Aggiungi un nuovo Tablix e inizia ad aggiungere valori dal set di dati 1. Aggiungiamo Nome, Paese e Stato. Nostro Tablix sarà simile a questo:

2. Per aggiungere la quarta colonna, Regione, dal set di dati 2 in questo Tablix, aggiungi una nuova espressione, come mostrato:

3. Nella nostra espressione, utilizzeremo la formula "Ricerca" per trovare i valori della regione corrispondenti nel set di dati 2.

La funzione di ricerca è impostata in questo modo: Ricerca (espressione_origine, espressione_destinazione, espressione_risultato, set di dati)

Nel nostro esempio, source_expression è nuovo nome dal set di dati 1, espressione_destinazione è nuovo nome dal set di dati 2, espressione_risultato è nuova regione dal set di dati 2, e set di dati è il secondo set di dati da cui vogliamo recuperare i valori della regione, che è DataSet2.

Quindi, la nostra espressione assomiglia a questa:

Una volta impostata questa espressione, otterrai Regione valori nella stessa tabella!

In conclusione, tieni presente che dobbiamo assicurarci che il set di dati che stiamo "cercando" abbia valori univoci. Quindi saremo in grado di utilizzare semplicemente la funzione di ricerca e recuperare i valori da quel set di dati e combinarli con i dati del nostro set di dati originale che abbiamo scelto per la nostra tabella.


Analizzare

"Amber" si riferisce a due cose: un insieme di campi di forza meccanica molecolare per la simulazione di biomolecole (Amber) e un pacchetto di programmi di simulazione molecolare che include codice sorgente e demo (AmberTools).

ArcGIS Desktop

ArcGIS Desktop è una raccolta di prodotti software per la creazione di sistemi informativi geografici (GIS) completi. prodotto da Esri. ArcGIS Desktop 9 fornisce un GIS integrato, che combina modelli di dati orientati agli oggetti e tradizionali basati su file con una serie di strumenti per creare e lavorare con dati geografici. Le tre applicazioni seguenti comprendono la suite software ArcGIS Desktop:

ESRI ArcGIS Explorer

ArcGIS Explorer è un visualizzatore di sistemi di informazione geografica (GIS) per esplorare, visualizzare e condividere informazioni GIS. Fornisce un modo liberamente distribuibile per condividere i prodotti prodotti dai prodotti commerciali di ESRI.

Ci sono due versioni: una per desktop, l'altra on-line. La versione online include il supporto per le mappe abilitate a tempo.

ESRI ArcGIS ModelBuilder

Il software ArcGIS Desktop di ESRI contiene ModelBuilder, uno strumento per il flusso di lavoro che consente la creazione e l'esecuzione di modelli coerenti e ripetibili che comprendono uno o più passaggi di elaborazione. ModelBuilder può essere utilizzato per garantire l'integrità di un particolare modello o insieme di processi analitici attraverso la modellazione, l'archiviazione e la pubblicazione di operazioni e flussi di lavoro complessi. I flussi di lavoro di ModelBuilder possono essere creati ed eseguiti sia sul desktop che sul web.

ESRI ArcMap

ArcMap è il cavallo di battaglia per la visualizzazione e la modifica delle mappe per il pacchetto software ESRI ArcGIS Geographical Information System (GIS). È più ampiamente utilizzato per la creazione di mappe, ma ha anche ampie capacità di modifica e analisi. La "Casella degli strumenti" disponibile in ArcMap fornisce una serie enciclopedica di funzioni di manipolazione e analisi dei dati GIS per quasi tutte le applicazioni.

Calcolatore di carbonio nel settore forestale

Il calcolatore del carbonio del settore forestale è uno strumento che aiuta gli utenti a conoscere come cambiano le riserve di carbonio nella foresta nel tempo.

FRAGSTATS: Programma di analisi del modello spaziale per mappe categoriali

FRAGSTATS è un programma software per computer progettato per lavorare con dati geospaziali per aiutare l'utente a classificare modelli e metriche del paesaggio ed è utile per identificare le aree in cui le attività di utilizzo del suolo hanno portato alla frammentazione del paesaggio. La versione attuale è la versione 3.3

Il programma sta attualmente subendo un altro importante rinnovamento, che porterà al rilascio della versione 4.0 nel 2011.

HDFql

HDFql sta per "linguaggio di query in formato dati gerarchico". È un linguaggio di alto livello per la gestione dei file HDF5.

HDFql fornisce un'interfaccia più semplice, pulita e veloce per HDF5 su C, C++, Java, Python, C# e Fortran.

HDFView

HDFView è uno strumento visivo per sfogliare, visualizzare, gestire e modificare file di dati binari HDF4 (Hierarchical Data Format) e HDF5. I file HDF sono progettati per contenere grandi quantità di dati numerici o di altro tipo.

Lo strumento consente di visualizzare la struttura gerarchica dei file, creare e modificare nuovi file, gruppi, set di dati, contenuto del set di dati e attributi dei dati.

IMacros per Firefox

iMacros è stato progettato per automatizzare le attività più ripetitive sul web. Con iMacros, puoi compilare rapidamente moduli web, ricordare password, creare un notificatore webmail, scaricare informazioni da altri siti, raschiare il Web (ottenere dati da più siti) e altro ancora. Puoi conservare le macro sul tuo computer per uso personale o condividerle con altri incorporandole nella tua home page, blog, Intranet aziendale o qualsiasi servizio di social bookmarking.

ImmagineJ

ImageJ è uno strumento di visualizzazione e elaborazione delle immagini open source basato su Java. Può leggere e scrivere immagini nei formati GIF, JPEG, BMP, PNG, PGM, FITS, ASCII e TIFF. Le funzionalità di modifica includono il miglioramento dell'immagine (ad esempio, levigatura, nitidezza, rilevamento dei bordi, filtraggio e sogliatura mediana), manipolazione dell'immagine (ad esempio, ritagliare, ridimensionare, ridimensionare, ruotare e capovolgere) e persino analisi (ad esempio, misurazione dell'area, luminosità media, deviazione standard , luminosità minima e massima e misurazione di lunghezze e angoli).

Librerie numeriche IMSL

Le librerie numeriche IMSL forniscono un'ampia varietà di algoritmi matematici e statistici scritti in vari linguaggi di programmazione per una facile integrazione da parte dei programmatori. Esistono librerie per C, Fortran, Java, .NET e Python (tramite wrapper). Questi algoritmi non sono utili solo per le applicazioni desktop, ma possono anche essere applicati a High Performance Computing (HPC) e High Throughput Computing (HTC).

JHOVE2

JHOVE2 è un software open source per la caratterizzazione di oggetti digitali. La caratterizzazione acquisisce le informazioni su un oggetto digitale che descrivono le proprietà tecniche significative di quell'oggetto. Ad esempio, per un file di immagine digitale, JHOVE2 può identificare il formato preciso del file, nonché le proprietà tecniche salienti del file, come risoluzione, profondità di bit e spazio colore. L'acquisizione di queste informazioni supporta l'analisi della conservazione digitale e il processo decisionale.

JMP è un pacchetto software desktop progettato da SAS per la visualizzazione dinamica dei dati e l'esplorazione dei dati statistici. JMP include un generatore di grafici interattivo che supporta un'ampia varietà di tipi di grafici bi e tridimensionali e i report statistici vengono visualizzati insieme ai grafici per la valutazione e l'interpretazione. I dati possono essere caricati in JMP da formati di file desktop comuni (ad es.

Matematica

Mathematica è una piattaforma di calcolo utilizzata da scienziati, ingegneri e matematici. Mathematica supporta la risoluzione di equazioni, l'analisi numerica, nonché la rappresentazione grafica e la visualizzazione. Mathematica dispone di filtri di importazione ed esportazione per dati tabulari, immagini, video, suoni, CAD, documenti GIS e formati biomedici. È disponibile il supporto per strumenti di data mining come l'analisi dei cluster, l'allineamento di sequenze e la corrispondenza dei modelli, nonché il supporto per il mining di testo.

MATLAB

MATLAB è un ambiente interattivo di analisi e visualizzazione dei dati che può essere utilizzato per eseguire in modo efficiente operazioni ad alta intensità di calcolo su grandi insiemi di dati. MATLAB fornisce anche un linguaggio di programmazione di alto livello che supporta lo sviluppo rapido di script del flusso di lavoro e applicazioni di interfaccia utente grafica per automatizzare attività ripetitive.

MetaMorph

MetaMorph è una suite di analisi delle immagini standard del settore e una piattaforma di acquisizione.

La suite software MetaMorph supporta un'ampia gamma di microscopi, fotocamere e tavolini di precisione utilizzati nella bioricerca. Il software fornisce funzionalità di acquisizione, elaborazione e analisi che consentono ai ricercatori di creare sistemi di imaging personalizzati per risolvere problemi sperimentali nell'imaging cellulare.

National Instruments LabVIEW

National Instruments LabVIEW è un'applicazione sofisticata per la creazione e la gestione di sistemi di misura, test, raccolta dati e controllo ingegneristici e scientifici. LabVIEW include un'interfaccia utente grafica che consente di configurare e utilizzare dispositivi hardware esterni come sensori meccanici o elettronici utilizzando metodi "punta e clicca". Le reti di sensori e dispositivi di elaborazione possono essere unite utilizzando connettori "cablati" simili a diagrammi di flusso.

NodoXL

NodeXL è un modello open source gratuito per Excel 2007 e 2010 che consente di accedere a un elenco di bordi di rete, fare clic su un pulsante e visualizzare il grafico della rete, il tutto nella finestra di Excel.

Ottava

GNU Octave è un linguaggio di alto livello, destinato principalmente ai calcoli numerici. Fornisce un'interfaccia a riga di comando per risolvere numericamente problemi lineari e non lineari e per eseguire altri esperimenti numerici utilizzando un linguaggio che è per lo più compatibile con MATLAB. Può anche essere usato come linguaggio orientato ai batch.

Apri BUG

OpenBUGS è un software per eseguire simulazioni Markov Chain Monte Carlo (MCMC) seguendo la teoria statistica bayesiana. È uno dei due pacchetti software creati per l'inferenza bayesiana utilizzando il campionamento di Gibbs o BUGS. OpenBUGS è così chiamato perché funziona su più sistemi operativi, il software WinBUGS può essere utilizzato con i sistemi operativi Windows (vedi lo strumento WinBUGS in DataONEpedia per i dettagli).

Oriana

Oriana è uno strumento per il calcolo delle statistiche per dati circolari o radiali (angoli o direzioni misurati in gradi, ora del giorno, giorno della settimana, mese dell'anno, ecc.). Può essere utilizzato per dati di orientamento (direzione presa da un punto), per descrivere e confrontare distribuzioni temporali e intervalli di specie e altri tipi di dati che non sono gestiti direttamente nella maggior parte dei pacchetti statistici.

Visualizzatore dati Panoply

Panoply è un'applicazione multipiattaforma che traccia array geo-grid da set di dati netCDF, HDF e GRIB. Supporta le seguenti operazioni:

Progetto Tridente

Project Trident è un workbench del flusso di lavoro scientifico che consente agli utenti di creare flussi di lavoro visivamente utilizzando un catalogo di attività esistenti e flussi di lavoro completi. Il workbench del flusso di lavoro fornisce una libreria a più livelli che nasconde la complessità delle diverse attività e servizi del flusso di lavoro per facilità d'uso. Trident supporta: flussi di lavoro di analisi e visualizzazione, composizione, esecuzione, catalogazione di esperimenti come flussi di lavoro e acquisizione di informazioni sulla provenienza.

SAS Enterprise Miner

SAS Enterprise Miner semplifica il processo di data mining per creare modelli predittivi e descrittivi basati sull'analisi di grandi quantità di dati. È possibile accedere ai dati da file locali o da connessioni a database remoti. Il software di data mining SAS utilizza un'interfaccia interattiva point-and-click per creare flussi di lavoro e diagrammi di analisi, quindi eseguirli. SAS Miner può trasformare e manipolare i dati utilizzando filtri e analisi statistiche per estrarre i dati desiderati da grandi set di dati.

Ambiente di sviluppo scientifico Python (SPYDER)

SPYDER è un ambiente software gratuito per la visualizzazione, il calcolo numerico e l'analisi dei dati. Fornisce un ambiente di sviluppo grafico per il linguaggio di programmazione Python e sfrutta molti pacchetti scientifici e ingegneristici tra cui Matplotlib, NumPy e altri. È disponibile su Windows, Mac OS X e GNU/Linux.

SpatiaLite

SpatiaLite è un'estensione del database SQLite che gli consente di supportare dati spaziali.

SpatiaLite è conforme alle specifiche OpenGIS. Ha le seguenti caratteristiche:

SpotFire

Spotfire è uno strumento di analisi e visualizzazione dei dati. Consente agli utenti di eseguire analisi ad hoc e creare applicazioni analitiche personalizzate. Supporta l'importazione di dati da fogli di calcolo e database relazionali, nonché dati in tempo reale e basati su eventi. Oltre alla visualizzazione, Spotfire incorpora anche funzioni statistiche.

Minatore di fuoco

Spotfire Miner è un software per il data mining di grandi set di dati. Viene venduto commercialmente da TIBCO.

Gli utenti possono connettersi a set di dati remoti o locali, applicare filtri statistici e metodologici, pulire e trasformare i dati e infine applicare un modello per produrre i dati estratti desiderati. I modelli statistici includono il clustering, l'analisi di regressione e l'analisi delle componenti principali. I modelli basati sui dati storici possono quindi essere utilizzati per prevedere i risultati futuri sulla base dei dati appena estratti.

SPSS è un pacchetto software statistico desktop incentrato sulla modellazione e sulle statistiche. SPSS può accedere ai dati da molti diversi set di dati proprietari e open source e ha una grafica decente e ottime capacità di modellazione statistica. Un punto debole (fino alla versione 17) è la qualità di presentazione dei grafici. Altri pacchetti fanno un lavoro molto migliore nella presentazione dei dati.

SPSS Amos

IBM SPSS Amos è uno strumento utilizzato per la modellazione di equazioni strutturali. È dotato di strumenti di disegno drag-and-drop e produce la grafica dei modelli finali per la presentazione.

Amos utilizza metodi standard, tra cui regressione, analisi fattoriale, correlazione e analisi della varianza. Può essere utilizzato per creare modelli per testare ipotesi e confermare relazioni tra variabili.

Tableau

Tableau supporta l'analisi di dati tabulari da fogli di calcolo e database relazionali. Lo strumento fornisce un'interfaccia visiva che consente agli utenti di importare dati ed esplorare interattivamente i dati attraverso visualizzazioni. Queste visualizzazioni vengono create tramite un'interfaccia utente grafica che consente agli utenti di creare query trascinando e rilasciando i nomi degli attributi da tabelle e fogli di calcolo.

Libreria di classi Tika java disponibile tramite il gruppo Apache. Supporta il rilevamento del tipo di supporto basato su firme del tipo di file, estrazione di metadati e analisi ed estrazione del testo.

Formati di documenti supportati:

TMI-Orion QLEVER

TMI-Orion è un produttore di sensori di dati e data logger. Hanno un software personalizzato chiamato QLEVER per configurare, testare, registrare dati ed eseguire statistiche di base sui flussi di dati risultanti dai sensori. Il software può gestire i sensori (in alcuni casi da remoto) e valutare la durata della batteria del sensore e le prestazioni tecniche.

Rete UCI

UCINET è un pacchetto completo per l'analisi dei dati dei social network e di altri dati a 1 e 2 modalità. I metodi di analisi dei social network includono misure di centralità, identificazione di sottogruppi, analisi dei ruoli, teoria dei grafi elementari e analisi statistica basata sulla permutazione. Inoltre, il pacchetto dispone di potenti routine di analisi delle matrici, come l'algebra delle matrici e le statistiche multivariate.

Integrato con UCINET è il programma NetDraw per disegnare diagrammi di social network.

WEKA è uno strumento di data mining. È una raccolta di algoritmi di apprendimento automatico standard organizzati e presentati all'utente come un banco di lavoro.Gli algoritmi possono essere applicati direttamente a un set di dati dal workbench o richiamati dal codice Java. Nuovi classificatori, filtri, ecc. possono essere aggiunti tramite la GUI.

WEKA è scritto in Java e funziona su piattaforme che supportano Java. È disponibile sotto la GNU Public License (GPL).

WinBUGS

WinBUGS è un software per eseguire simulazioni Markov Chain Monte Carlo (MCMC) seguendo la teoria statistica bayesiana. È uno dei due pacchetti software creati per l'inferenza bayesiana utilizzando il campionamento di Gibbs o BUGS. WinBUGS è così chiamato perché funziona su sistemi operativi Windows, il software OpenBUGS può essere utilizzato su altri sistemi operativi (vedi voce OpenBUGS).


2 risposte 2

Usa rasterToPoints, ad esempio:

ti ritroverai con 86 milioni di righe, anche se le celle con NA non vengono restituite.

Vi ringrazio molto! Come seguito - per estrarre solo una parte della mappa (ad esempio un poligono), ho creato un poligono usando polyTara <- SpatialPolygons(. ). Come lo applicherei prima di estrarre i punti?

Puoi usare raster::extract() per recuperare i valori raster da qualsiasi oggetto Spatial*. Ad esempio, extract(your_raster, your_polgon) restituirà un dataframe dei valori dei pixel. Da qui è semplice creare statistiche di riepilogo (come quelle che si otterrebbero dalle Statistiche zonali di ArcGIS come Tabella).

Come puoi estrarre un valore di attributo da un raster da un punto (lat/long)?

Dati di esempio: Raster con tabella degli attributi - il valore di interesse è la temperatura

Ho un elenco di punti con valori lat/long, per i quali voglio estrarre i valori di temperatura. Il raster contiene più valori di attributo, temp non è il valore "pixel"

Questo non risponde davvero alla domanda. Se hai una domanda diversa, puoi farla facendo clic su Fai domanda. Puoi anche aggiungere una taglia per attirare più attenzione su questa domanda una volta che hai abbastanza reputazione. - Dalla recensione

Se hai una nuova domanda, ponila facendo clic sul pulsante Fai domanda. Includere un collegamento a questa domanda se aiuta a fornire il contesto. - Dalla recensione


Obiettivi

Tecniche GIS/telerilevamento che gli studenti apprendono in questo compito
Conversione di file .las non elaborati in file multipunto creazione di un terreno per primo e ultimo ritorno conversione di un terreno in un raster di elevazione download di dati da un'unità GPS e creazione di uno shapefile tracciando una linea in una direzione specifica per una distanza specifica che va a una coordinata XY specifica e aggiunta di un punto modifica di uno shapefile, inclusa l'aggiunta di un punto con i valori delle coordinate, l'eliminazione di un record, l'aggiunta di campi (e la determinazione del tipo di campo, la precisione e la scala), il calcolo delle geometrie e l'esecuzione dei calcoli utilizzando il Calcolatore di campi estrazione dei valori ai punti utilizzando l'interpolazione per creare un raster da un insieme di punti e visualizzarlo in ArcScene utilizzando Model Builder.

Altri contenuti/concetti obiettivi per questa attività

Obiettivi di abilità di pensiero di ordine superiore per questa attività
valutazione della qualità di tutti i dati e una valutazione della validità delle varie raccomandazioni sulle tecniche di interpolazione su dove dovrebbe essere perforato il prossimo pozzo per definire più accuratamente la falda freatica sotto il campus.


Estrazione di più valori dalla tabella in ArcGIS ModelBuilder? - Sistemi Informativi Territoriali

Analisi vettoriale II: sovrapposizione topologica

I processi di sovrapposizione topologica sono al centro del toolbox originale di ArcInfo. In effetti, l'overlay topologico è ciò per cui ArcInfo e i suoi predecessori, come Odyssey, erano stati originariamente progettati per fare. La sovrapposizione topologica ci consente di porre domande come "Dove sono le località che si trovano su suoli instabili, econ una pendenza nel range del 25-40%, eraccolte negli ultimi 15 anni, esu siti a bassa produttività e qual è la loro percentuale di superficie rispetto all'intero bacino idrografico?"

La sovrapposizione topologica è un processo mediante il quale strati separati che condividono la stessa estensione spaziale vengono uniti in modi diversi. L'architetto paesaggista Ian McHarg ha sviluppato un metodo analogico, un precursore dell'implementazione digitale all'interno del GIS. Il suo approccio consisteva nel prendere mappe tracciate su fogli di acetato o mylar, metterne una sopra l'altra e fissare la pila con del nastro adesivo a una finestra o sopra un tavolo luminoso. Le aree di sovrapposizione erano più scure delle aree che non si sovrapponevano. Il GIS si comporta in modo simile, tranne per il fatto che l'input e l'output sono più accurati e precisi e più facili da gestire.

Il motivo per cui queste operazioni sono note come sovrapposizione "topologica" è perché il processo di sovrapposizione include la ricostruzione delle relazioni topologiche che fanno funzionare gli strati. Nel GIS, dove le linee si intersecano tra uno strato e l'altro, vengono creati i vertici. Laddove linee o punti condividono lo stesso spazio dei poligoni, le linee ei punti ereditano gli attributi dei poligoni spazialmente corrispondenti. Vengono formati nuovi livelli che possono assumere gli attributi o le proprietà delle coordinate dei set di dati di input. Alcune o tutte le funzionalità dei set di dati di input vengono passate all'output. I valori degli attributi di entrambi i set di dati di input vengono passati al set di dati di output.

La sovrapposizione topologica è diversa da from Seleziona per livello operazioni descritte nell'ultima lezione. Nelle operazioni Seleziona per layer, ArcGIS esamina solo la sovrapposizione spaziale delle feature di due layer e crea un nuovo set selezionato in uno di questi layer non vengono prodotti nuovi dataset e non vengono effettuati aggiornamenti degli attributi. Nel Sovrapposizione topologica, vengono creati nuovi layer la cui geometria e/o struttura degli attributi vengono alterate. La sovrapposizione topologica ci consente di trovare caratteristiche sovrapposte, nonché di quantificare l'area o la lunghezza della sovrapposizione.

Il buffering è un argomento separato dall'overlay topologico, ma è spesso associato all'overlay perché il più delle volte i risultati del buffering vengono utilizzati nelle successive analisi di overlay per quantificare le proprietà del paesaggio all'interno di un'area buffer.

In ArcGIS, le operazioni di geoprocessing, comprese le operazioni di sovrapposizione topologica, sono accessibili tramite ArcToolbox.

ArcToolbox esiste come finestra agganciabile all'interno di qualsiasi altra applicazione ArcGIS Desktop (ArcMap, ArcCatalog, ArcGlobe, ArcScene). I metodi di sovrapposizione e prossimità per le feature class (shapefile e geodatabase) sono organizzati all'interno del Strumenti di analisi albero all'interno di ArcToolbox:

Un insieme di operazioni simile è disponibile per i dati di copertura di ArcInfo:

I seguenti layer cartoon verranno utilizzati per illustrare la funzionalità di ciascuna diversa operazione di sovrapposizione topologica. Gli strati campione sono Squillare e Scatola. Nota che il Squillare layer ha un attributo numerico, mentre il Scatola layer ha un attributo di testo. Dove il valore numerico non è definito, ArcGIS posizionerà uno 0 dove il valore della stringa non è definito, non ci sarà alcun valore.

Ciascuna delle operazioni di sovrapposizione genera nuovi set di dati. Per i set di dati di output, la geometria della feature viene quasi sempre modificata. Nei casi in cui la geometria viene modificata, è possibile aggiornare gli attributi della geometria (ad es. area, perimetro, lunghezza). il ricalcolo della geometria, più l'unione degli attributi utente, è ciò che dà potere alle operazioni di sovrapposizione.

Tipi di sovrapposizione topologica

L'aggiunta viene utilizzata per unire più set di dati che rappresentano gli stessi dati tematici, ma sono contigui. Ecco un esempio che mostra due shapefile individuali di Public Land Survey Sections. Nell'immagine sottostante, puoi vedere i 2 set di dati (sezioni_nord e sezioni_sud si noti che i set di dati completi sono parzialmente oscurati dal contorno della foresta).

Dopo l'aggiunta, c'è un singolo set di dati (sezioni).

Quando 2 strati sono sindacato, tutte le funzioni di entrambi i livelli di input vengono combinate. Tutti gli elementi di attributo del livello di input e del livello di sovrapposizione sono inclusi nell'output. L'ordine degli input non ha importanza.

Ovunque vedi un'intersezione tra le linee nell'output, c'è un nodo. Ogni area chiusa che vedi è un poligono separato con un proprio record.

Nota come le aree nulle di ciascuno dei livelli di input sono nulle (per un elemento carattere) o 0 (per un elemento numerico). In uscita, al di fuori del scatola, sono presenti valori nulli per il campo di testo. Fuori da squillare, sono presenti valori nulli per il campo numerico. Notare anche come tutte le feature di input sono state mantenute, ma sono stati creati nuovi poligoni alle intersezioni dei poligoni di input. Gli attributi vengono uniti dove sono presenti aree di sovrapposizione. Dove non c'è sovrapposizione, vengono conservati solo gli attributi di input.

Ecco un esempio di unione di alcuni poligoni di soprassuolo forestale e suolo.

Nota come tutte le funzionalità di entrambi i set di dati originali persistono nel set di dati di output. Ovunque ci siano aree di sovrapposizione, vengono creati nuovi poligoni.

L'identificazione di uno dei poligoni mostra il set di dati di output per contenere gli attributi da tutti e due set di dati di input (attributi del suolo in verde e attributi del basamento in rosso).

Il Identità La funzione mantiene tutte le caratteristiche del livello di input, ma prende le caratteristiche dal livello di identità che si sovrappongono al livello di input. Le proprietà delle coordinate del livello di output dipendono da quale degli input è il livello di identità. È molto simile alla funzione Union, ma include una clip al confine del poligono del livello di input.

livello di input

livello di identità

livello di output

livello di input

livello di identità

livello di output

Nota come nella funzione identità, l'ordine di precedenza è importante. Nei punti in cui c'è sovrapposizione, tutti gli attributi sono stati uniti. Dove non c'è sovrapposizione, sono stati mantenuti solo gli attributi di input.

Ecco un esempio di un'identità eseguita sul National Wetland Inventory (NWI) come livello di input con stand come livello di identità. Il livello di output ha la stessa estensione spaziale del livello NWI originale, ma se guardi attentamente, vedrai che ci sono ulteriori confini del poligono, formati dalla sovrapposizione di poligoni di supporto sui poligoni NWI.

Gli attributi sono anche uniti in un'identità, come mostrato nei risultati di questa identificazione:

Il intersecare il funzionamento è simile agli altri comandi in sovrapposizione, ma nell'uscita vengono incluse solo le aree comuni tra i due ingressi. A differenza dell'identità, in intersecano l'ordine del livello di input e del livello intersecano non ha importanza.

Le uniche aree che esistono nell'output sono aree presenti in entrambi gli input (simile a un'intersezione di insiemi matematici). Per queste aree, vengono conservati tutti gli attributi di entrambi gli input.

Ecco gli stessi set di dati di input di prima, con un'intersezione eseguita sugli stand e sui livelli NWI. Il set di dati di output (in rosa) è spazialmente limitato all'area in comune tra i livelli di input. L'azzurro sullo sfondo è il set di dati NWI originale, ma puoi vedere che il set di dati rosa è ritagliato dal bordo dei boschi.

I dati intersecati hanno anche attributi da entrambi i set di dati di input.

Aggiornare sostituisce le parti sovrapposte del livello di input con le caratteristiche del livello di aggiornamento.

come con Identità, l'ordine di precedenza è importante con Aggiornare. Solo gli attributi nel livello di input esistono nel livello di output. Se non sono presenti valori per campi particolari, i valori saranno null (i valori null sono vuoti per i campi stringa, 0 per i campi numerici).

Qui, i dati dei suoli sono stati aggiornati dai dati dei laghi. Il nuovo livello ha nuovi poligoni da supporti che sono stati aggiunti e sovrascritti su eventuali poligoni di suoli esistenti. Questa immagine mostra i dati dei suoli originali.

E aggiornato con i laghi:

Qui viene selezionato uno dei nuovi poligoni. In realtà ci sono due poligoni a causa della sovrapposizione dei poligoni di aggiornamento sui suoli originali.

Clip ritaglia parti del livello di input con la forma esterna del livello di ritaglio. Vengono mantenuti solo gli attributi del livello di input.

Livello di input

livello di clip

livello di output

livello di input

livello di clip

livello di output

ClipAnche l'ordine di precedenza è importante, come puoi vedere da due serie di immagini diverse sopra.

Ecco il set di poligoni di inventario del canale sotterraneo creati in precedenza per l'area Pack Forest, ritagliati dal confine amministrativo. Rimangono solo gli attributi dell'area dell'inventario originale.

È possibile notare che all'interno dell'area amministrativa i confini interni sono gli stessi del set di dati originale, ma il nuovo set di dati è limitato spazialmente dal confine amministrativo.

Un'intersezione di strade e il confine avrebbe creato un set di dati con le stesse proprietà spaziali di questo output, ma gli attributi del confine sarebbero stati inseriti anche nella tabella degli attributi di output.

Cancella rimuove parti del livello del livello di input in base alle proprietà spaziali del livello di cancellazione. Gli attributi dal livello di input vengono passati al livello di output e nessuno degli attributi del livello di cancellazione viene trasferito all'output. Come con alcune delle altre operazioni di sovrapposizione topologica, l'ordine di input e di cancellazione del livello è importante.

Livello di input

cancella livello

livello di output

livello di input

cancella livello

livello di output

Ecco lo strato di terreno cancellato, usando i laghi come gomma. Tutte le aree nello strato dei suoli che si sovrappongono ai poligoni dei laghi vengono cancellate. La tabella degli attributi di output ha la stessa struttura della tabella degli attributi di input (terreni).

Valori della geometria della feature

Uno dei motivi principali per eseguire qualsiasi tipo di sovrapposizione topologica è ottenere misurazioni quantitative della sovrapposizione tra i livelli. La lunghezza degli elementi lineari e l'area e il perimetro degli elementi poligonali è una proprietà intrinseca degli elementi, ma queste misurazioni non sono sempre presenti nelle tabelle degli attributi e solo in alcuni casi le misurazioni della geometria vengono aggiornate durante l'elaborazione della sovrapposizione. Ecco una sinossi:


Nota: Questo post è un aggiornamento del 2013 al mio precedente post su Learning GIS e Ottenere un lavoro GIS - Alcuni suggerimenti e trucchi che è stato originariamente pubblicato nel 2009.

Nel 2009 ho scritto un post su come ottenere un lavoro GIS incentrato sui percorsi per apprendere i GIS, sulle abilità critiche che ogni analista GIS dovrebbe conoscere e sui modi per aumentare i percorsi di apprendimento tradizionali per distinguerti dagli altri candidati di lavoro. Anche se questo post ha più di 3 anni, viene ancora letto da persone interessate all'argomento e ricevo ancora commenti.

Recentemente ho riletto il post e ho deciso che era necessario un aggiornamento. Il software è cambiato e le vecchie competenze devono essere sostituite con nuove competenze per stare al passo con l'evoluzione del settore del software GIS. Per brevità, ho focalizzato questo nuovo post sulle modifiche e le revisioni alle raccomandazioni che ho fatto nel mio post precedente. Ho anche aggiunto collegamenti a risorse e approfondito alcuni argomenti che ho introdotto l'ultima volta. Quindi, assicurati di leggere quel post prima di questo in modo da avere il quadro completo di ciò che è cambiato.

Per semplicità, mi sono concentrato sulle competenze necessarie per una posizione di Analista/Specialista GIS. Gli sviluppatori GIS e le posizioni dei gestori di database GIS hanno un diverso insieme di competenze che possono sovrapporsi ad alcune di queste, ma includono anche competenze specifiche che non fanno parte del toolkit quotidiano degli analisti GIS e non sono incluse qui.

Percorsi di apprendimento

Ci sono una serie di motivi per cui vuoi imparare il GIS. Potresti essere impiegato in un campo non GIS e stai imparando GIS come parte del tuo lavoro. Forse stai cambiando carriera o ti stai riqualificando per trovare un nuovo lavoro nel settore geospaziale in crescita. Forse sei uno studente che vuole imparare il GIS per supportare il tuo campo di studio, o sei uno studente che si sta specializzando in GIS o geografia con l'aspirazione di ottenere un lavoro facendo GIS.

A seconda del tuo obiettivo, ci sono diversi percorsi per iniziare a imparare GIS:

Laurea in GIS/Geografia formale

Se vuoi ottenere una laurea o un master con specializzazione in GIS o geografia, dovresti iniziare in un college o università della comunità dove puoi seguire corsi GIS accreditati che si applicheranno ai requisiti della tua specializzazione.

Formazione professionale e continua

Se stai cercando competenze GIS per il tuo lavoro attuale o vuoi riorganizzarti per un impiego immediato, potresti trovare un programma di certificazione professionale in GIS presso un college locale o un'estensione universitaria. Questi programmi di solito non sono accreditati, il che significa che probabilmente non conteranno per soddisfare i requisiti per una laurea formale in GIS, ma sono un ottimo modo per imparare rapidamente il GIS e acquisire competenze facilmente utilizzabili per aiutarti a entrare nel mercato. Inoltre, molti programmi di certificazione professionale sono tenuti da professionisti che lavorano nel settore, quindi otterrai informazioni di prima mano su come viene utilizzato il GIS dalle persone che lo usano quotidianamente. Questi programmi sono anche luoghi fantastici per fare rete con potenziali futuri datori di lavoro.

Se la traccia del certificato professionale è ciò di cui hai bisogno, verifica con i college e le università della comunità locale nella tua zona per vedere se hanno un programma di certificazione professionale, esteso o continuo in GIS o scienze geospaziali. Se non ci sono scuole nella tua zona che offrono certificati o lauree in GIS, oggi sono disponibili numerosi ottimi programmi online, tra cui:

Questo elenco non è affatto completo, quindi se conosci altri programmi non elencati, aggiungili come commento a questo post.

Sia URISA che ESRI mantengono anche un elenco di università, quindi potresti anche voler controllare anche i loro siti Web:

Sul sito web di ESRI Virtual Campus sono inoltre disponibili una serie di corsi brevi gratuiti e workshop tecnici specifici.

Scopri cosa vogliono i datori di lavoro

Non fidarti necessariamente che il tuo certificato o corso di laurea GIS ti insegnerà tutte le competenze necessarie per ottenere un lavoro GIS. Ho intervistato troppi candidati che si sono laureati in un programma di certificazione GIS ma sapevano solo come utilizzare ArcGIS. Sebbene la competenza con ArcGIS sia un insieme di competenze critiche da avere come analista GIS, ci sono una serie di altre competenze/tecniche hard e soft che dovresti conoscere per essere un degno candidato di lavoro.

Come minimo dovresti essere esperto nell'uso del software ESRI ArcGIS (ed estensioni come Spatial e 3D Analyst) e dovresti essere in grado di produrre risultati cartograficamente piacevoli. Tuttavia, gli analisti e i tecnici GIS dovrebbero anche sapere quanto segue:

  • Produzione cartografica
  • Creazione dati
  • Progettazione e creazione di geodatabase
  • Modifica dei dati
  • topologia
  • proiezioni
  • Analisi GIS
  • Geoprocessing
  • Acquisizione dati GPS
  • Interpretazione della fotografia aerea
  • Georeferenziazione
  • Conversione dati
  • Implementazione dei metadati

I datori di lavoro si aspettano inoltre che gli analisti GIS abbiano esperienza con:

  • Almeno un sistema di gestione di database non spaziale (Microsoft Access, Oracle, MySQL, ecc.)
  • Microsoft Office (Excel, Word, Outlook, PowerPoint e Access).

Infine, la maggior parte degli annunci di lavoro richiede anche agli analisti GIS di avere una laurea in geografia, sistemi informativi geografici (GIS), cartografia, informatica o una disciplina correlata. (Le discipline correlate possono essere l'architettura del paesaggio, l'urbanistica, la geologia, ecc.). In molti casi i datori di lavoro accetteranno una laurea in un campo non correlato con prova del completamento di un programma di certificazione GIS o esperienza dimostrabile con GIS.Mentre le posizioni dei tecnici GIS richiedono spesso anni di esperienza minimi, è tipico vedere che i datori di lavoro richiedono almeno 3 anni di esperienza GIS per gli analisti GIS. Tuttavia, non lasciare che questi numeri ti dissuadano dal fare domanda per qualsiasi posizione. Nella maggior parte dei casi si tratta di qualifiche "desiderate" per un candidato "perfetto". I candidati "perfetti" sono rari, quindi i datori di lavoro accettano spesso candidati meno qualificati ed è qui che puoi brillare con la tua esperienza e le tue capacità.

Oltre alle competenze minime, le seguenti competenze sono comunemente elencate negli annunci per le posizioni di Analista GIS:

  • SQL
  • Programmazione/script con Python
  • ArcGIS Server/SDE
  • Modellista
  • Trimble Pathfinder
  • ArcGIS Mobile
  • AutoCAD e integrazione di GIS e CAD
  • Adobe Photoshop
  • Adobe Acrobat Pro
  • Adobe Illustrator
  • Esperienza nello sviluppo di applicazioni web (Net, Java, Python, PHP, HTML, JavaScript o Flex)

Infine, non si tratta solo di capacità tecniche, i datori di lavoro cercano anche persone GIS che:

  • Possibilità di apprendere rapidamente nuove tecnologie, competenze e piattaforme/estensioni software con una supervisione minima
  • Sono bravi nella risoluzione dei problemi e nella risoluzione dei problemi
  • Sono auto-motivati ​​e proattivi
  • Può multitasking e bilanciare le priorità con il carico di lavoro
  • Può essere flessibile nel lavorare su progetti/eventi non pianificati
  • Può lavorare sia in modo indipendente che funzionare bene in un ambiente di squadra
  • Sono in grado di comunicare concetti GIS complessi a utenti di livello base.
  • Mostra attenzione ai dettagli e al processo
  • Mostra iniziativa nel lavorare in modo efficiente e nella ricerca di lavoro
  • Avere un approccio focalizzato sul cliente/a valore aggiunto
  • Avere forti capacità di comunicazione verbale e scritta

Competenza nel dominio, non essere solo un fantino GIS, sappi come applicarlo a qualche governo o industria come analisi ambientale, servizi pubblici, pianificazione e sviluppo urbano, marketing, ecc. Qualunque sia il tuo interesse, impara come utilizzare il GIS nella tua zona . Ti renderà una persona più preziosa e interessante di qualcuno che sa come usare ArcGIS.

Leggi riviste e siti web GIS

I portali e le riviste di siti Web GIS sono un ottimo modo per avere un'idea della direzione in cui si sta muovendo il settore, quali argomenti sono caldi e come le persone e le organizzazioni stanno implementando il GIS. Sono anche utili per tenersi aggiornati sulle ultime notizie relative al GIS. Quindi, esplora alcune delle riviste e dei siti Web disponibili. Alcune delle fonti più note includono:

Partecipa alle riunioni del gruppo di utenti

L'ho detto nel mio post precedente, ma lo dirò di nuovo perché è importante: praticamente tutti quelli che conosco che lavorano in GIS hanno ottenuto il loro primo o successivo lavoro come risultato del networking presso un gruppo di utenti locale o regionale. Trovane uno e frequentali spesso. Fai domande, parla con le persone: questi sono (o saranno) i tuoi colleghi e colleghi.

Per iniziare, controlla i seguenti siti web per vedere se c'è un gruppo di utenti nella tua zona:

Se non esiste un gruppo utenti locale o regionale nella tua zona, avviane uno. Probabilmente ci sono molte persone GIS che lavorano nella tua zona che vorrebbero partecipare a un gruppo di utenti. Questo è un ottimo modo per stabilire contatti nel settore GIS molto rapidamente. Molte agenzie possono usufruire gratuitamente delle proprie sale riunioni. La maggior parte dei venditori locali coglie al volo l'opportunità di commercializzare il proprio prodotto in una stanza piena di potenziali clienti, quindi i venditori possono essere utili per riempire gli slot di presentazione e spargere la voce. Con un po' di tatto di solito puoi convincere un venditore a sponsorizzare snack se stanno presentando.

Ottieni un'esperienza nel mondo reale e costruisci un portfolio

Nel mio post precedente ho menzionato la necessità di ottenere un'esperienza nel mondo reale per distinguerti dagli altri candidati di lavoro che hanno solo esperienza di lavoro in classe GIS. Oggi, più scuole stanno integrando il GIS nei loro curricula e più scuole offrono corsi e certificati GIS rispetto a qualche anno fa. Ciò significa che ci sono potenzialmente più persone in competizione per un lavoro GIS con te, quindi ciò che ti distinguerà dagli altri è la tua esperienza.

Quindi ottieni un'esperienza nel mondo reale, leggi ciò che ho scritto nel mio post precedente poiché è importante sviluppare abilità nel mondo reale che ti distingueranno dalla concorrenza.

Inoltre, crea un portfolio del tuo lavoro che puoi portare ai colloqui. Il mio primo portfolio consisteva in copie stampate 8,5 x 11 di mappe che avevo realizzato, script che avevo scritto e rapporti o documenti che avevo sviluppato. Ho inserito questi elementi in buste di plastica trasparente realizzate per un raccoglitore a 3 fori e ho portato il raccoglitore con me alle interviste. Successivamente ho creato i PDF delle mie mappe, rapporti e script e li ho masterizzati su CD che avrei dato ai potenziali datori di lavoro durante il colloquio, ma ho comunque portato il mio raccoglitore in modo da poter mostrare questi elementi durante l'intervista.

Quindi crea un portfolio e portalo con te ai colloqui. Fornisce un ottimo modo per mostrare la tua discussione sulla tua esperienza e mostrare le tue abilità cartografiche. Questi ti distingueranno dalla maggior parte della concorrenza che si presenterà solo a un colloquio con una copia del proprio curriculum.

Abilità ausiliarie

Al giorno d'oggi chiunque faccia domanda per un lavoro GIS può utilizzare ArcGIS Desktop. Mi dispiace ma questa abilità da sola non ti rende più speciale (non rende più speciale neanche me). Quindi i potenziali datori di lavoro chiederanno cos'altro puoi fare.

Qualsiasi persona GIS degna di nota sa come impostare e gestire un database. Che si tratti di Microsoft Access, SQL Server, Oracle, MySQL o PostGreSQL, se non sai come utilizzare un database, impara a farlo.

Se non hai familiarità con i database, impara Microsoft Access. È un buon sistema di database facile da imparare e da usare. Inoltre, molte organizzazioni lo usano comunemente e molte persone lo hanno già sui propri computer, poiché viene fornito con molte versioni di Microsoft Office.

Se non disponi di una copia di Microsoft Access e non puoi giustificare l'acquisto di uno, Open Office Base offre molte delle stesse funzionalità di Microsoft Access e può fungere da sostituto adatto per l'apprendimento dei database. Puoi scaricare Open Office da: http://www.openoffice.org/

Da lì puoi passare al gruppo di lavoro e ai sistemi aziendali come Microsoft SQL Server, Oracle, MySQL, PostGreSQL, ecc. Tutti questi sistemi di gestione di database offrono versioni gratuite per lo sviluppo o per uso personale che puoi scaricare per fare esperienza con loro. Vedere i collegamenti seguenti per ciascuna applicazione software:

Costruttore di modelli

Ci sono molte azioni che eseguiamo abitualmente in GIS che possono essere ripetitive manualmente. Considera l'esempio in cui ti viene dato un disco con 100 shapefile che sono nella proiezione WGS84 e devi importarli nella tua libreria di dati GIS (un geodatabase). Per fare ciò dovrai riproiettarli sul sistema di coordinate che utilizzi (NAD 83, UTM Zone 11). Potresti farlo manualmente in ArcCatalog o ArcMap, ma sarebbe meglio costruire un flusso di lavoro che possa automatizzare il processo e farlo 100 volte.

Model Builder è perfetto per questo tipo di attività. ModelBuilder è un'applicazione che usi per creare, modificare e gestire flussi di lavoro che mettono insieme sequenze di strumenti di geoprocessing, in cui gli strumenti alimentano l'output di uno strumento in un altro strumento come input. ModelBuilder è un linguaggio di programmazione visuale per la creazione di questi flussi di lavoro.

Perché impararlo? Model Builder è un'abilità chiave di analisi GIS perché:

  • Eseguire azioni come l'importazione manuale di 100 shapefile è noioso e non è un buon uso del tuo tempo.
  • Le analisi complicate spesso richiedono molte azioni di geoprocessing e spesso scoprirai che potresti dover ripetere un'analisi. Se hai bisogno di eseguire di nuovo un'analisi complessa e non hai creato un modello, dovrai rifare manualmente tutte le tue attività di geoprocessing e sperare di aver preso davvero bene le note delle tue fasi di elaborazione.
  • Se stai lavorando con set di dati di grandi dimensioni, le attività di geoprocessing possono richiedere molto tempo. In questo caso, è meglio costruire un modello per eseguire queste attività dopo ore invece di eseguire ogni attività passo dopo passo (a mano) e aspettare lunghi periodi per l'output.
  • I modelli possono essere incorporati in ArcGIS Toolbox e facilmente distribuiti ad altri utenti in modo che possano ripetere rapidamente un'analisi.
  • I modelli possono essere caricati su ArGIS Server per consentire l'elaborazione di file su un server o nel cloud.
  • Infine, i datori di lavoro esperti conoscono Model Builder e si presenta come un'abilità richiesta o desiderata negli annunci di lavoro.

Per iniziare a imparare Model Builder, visita i seguenti link:

ArcGIS Server

Se stai cercando un lavoro GIS in una grande organizzazione con un programma GIS esistente, è possibile che ti venga chiesto della tua esperienza con il prodotto ArcGIS Server di ESRI. ArcGIS Server è un'applicazione server Web che consente di condividere risorse GIS (mappe, globi, strumenti, flussi di lavoro di geoprocessing, ecc.) sul Web. Queste risorse sono ospitate su ArcGIS Serve per facilitare la condivisione dei dati che sono gestiti centralmente, supportano più utenti e contengono le informazioni più aggiornate.

Le competenze di ArcGIS Server sono richieste in questi giorni ed è un'abilità chiave da imparare se puoi. Tuttavia, l'apprendimento di ArcGIS Server non è facile. L'installazione, la gestione e il funzionamento di ArcGIS Server richiedono una conoscenza minima di come gestire un file server e un server Web e le autorizzazioni di Active Directory. Realisticamente, il modo migliore per conoscere ArcGIS Server è seguire un corso. Molti programmi di persona e online offrono un corso in ArcGIS Server Il Virtual Campus di ESRI ha anche corsi in ArcGIS Server.

Se non si ha familiarità con ArcGIS Server, visitare i collegamenti seguenti per ottenere un'introduzione generale ad ArcGIS Server e alle sue funzionalità.

Se non riesci a ottenere esperienza di lavoro con ArcGIS Server, una cosa che puoi fare (oltre a rivedere i collegamenti sopra) è registrarti per un account personale gratuito su www.arcgis.com. ArcGIS.com è una piattaforma online basata su abbonamento per la condivisione di informazioni geografiche e mappe. ESRI offre un account personale gratuito che fornisce un accesso limitato alle funzionalità e 2 GB di spazio di archiviazione. Con questo account e una copia di ArcGIS è possibile caricare dati e mappe su ArcGIS.com e provare un po' di cosa vuol dire lavorare con un ArcGIS Server dal punto di vista dell'utente.

Inoltre, la revisione degli esempi e delle informazioni sull'API Javascript di ArcGIS Server fornisce una prospettiva su come programmare le applicazioni Web per ArcGIS Server.

Sì, non lo è e il prodotto ESRI, ma Microsoft Excel può essere un componente fondamentale del flusso di lavoro di pulizia dei dati. Lo uso spesso per visualizzare, manipolare e pulire i dati prima di importarli in ArcGIS perché è potente, veloce e può essere utilizzato per apportare molte modifiche ai dati in modo rapido e semplice.

Durante l'apprendimento del GIS, lavoriamo con set di dati preparati che sono stati puliti e ottimizzati per funzionare nei nostri esercizi con problemi minimi. Nel mondo reale, i dati sono disordinati e contengono una combinazione di valori in una varietà di formati. Sapere come pulire rapidamente un set di dati è un'abilità GIS essenziale. Quindi uso excel per cambiare i dati da MAIUSCOLO a minuscolo per sostituire parti di dati con altri valori, per tagliare i dati e per combinare e dividere i dati. Tuttavia, raramente apporto queste modifiche manualmente. Invece utilizzo potenti funzioni in Excel che automatizzano queste correzioni su righe e colonne.

Sebbene Excel abbia molte funzioni, in genere ne uso solo diverse per la pulizia dei dati. Quindi impara come usare le funzioni in Excel come scriverle, copiarle e incollarle. In particolare, inizia con le seguenti funzioni, poiché sono più comunemente utilizzate per manipolare i dati:

  • Concatenare
  • Sinistra
  • Giusto
  • medio
  • Taglia
  • Sostituto
  • Sostituire
  • Superiore
  • Inferiore

Per saperne di più sulle funzioni di Excel, cerca semplicemente su Google o Bing "apprendimento delle funzioni di Excel". Un buon tutorial per iniziare è anche qui: http://blogs.mcombs.utexas.edu/the-most/2009/05/07/learn-excel-functions/

Nel mio post precedente ho consigliato di imparare un linguaggio di scripting perché sapere come scrivere uno script è utile quando è necessario pulire database enormi o eseguire azioni come correggere indirizzi per una migliore precisione di geocodifica, riformattare i dati, esportare e importare set di dati di grandi dimensioni e altro manualmente attività ripetitive che le persone GIS sono regolarmente incaricate.

Nel 2009, ho suggerito che Visual Basic for Applications (VBA) fosse un buon modo per iniziare. Da quel post, ESRI ha deprecato il supporto per VBA in ArcGIS 10.x e VBA non è il modo preferito per creare script nelle ultime linee di prodotti.

Oggi, lo scripting in ESRI riguarda Python. Python è un linguaggio di programmazione gratuito, multipiattaforma e open source ampiamente utilizzato e supportato negli ambienti open source ed esri GIS. È diventato il linguaggio di scripting preferito dagli utenti di geoprocessing e ESRI ha abbracciato pienamente Python per ArcGIS. Quindi consiglierei a chiunque in GIS che non conosca Python di imparare Python. Ecco alcuni collegamenti per iniziare a conoscere Python in ArcGIS:

Infine, mentre ESRI potrebbe non supportare più VBA, VBA è ancora ampiamente utilizzato nella linea di prodotti Microsoft Office sebbene venga lentamente sostituito da Visual Studio Tools for Applications di Microsoft: http://msdn.microsoft.com/en-us/library/cc175562 (v=vs.90).aspx

Report per ArcGIS

Nel mio post precedente, ho scritto delle virtù dell'apprendimento di Crystal Reports. Crystal Reports è un potente strumento di reportistica in grado di leggere database e fogli di calcolo, eseguire query, ordinare e riepilogare dati e generare PDF dall'aspetto professionale o report in tempo reale. Crystal Reports era incluso in ArcGIS Desktop, tuttavia in ArcGIS 9.3 ESRI ha smesso di includere il prodotto Crystal Reports completo e la procedura guidata Crystal Reports non è più inclusa in ArcGIS 10.x.

In sostituzione, ESRI offre ora un'applicazione di reportistica integrata in ArcGIS Desktop che fornisce gran parte delle stesse funzionalità offerte da Crystal Reports. Tuttavia, non è possibile accedere o utilizzare l'applicazione di reporting al di fuori di ArcGIS Desktop e deve essere utilizzata dall'interfaccia utente di ArcGIS Desktop.

Ci si potrebbe chiedere se sia ancora importante imparare Reports for ArcGIS. Sì, perché non si tratta sempre della mappa in effetti, spesso non si tratta affatto di una mappa. So che noi GIS siamo entrati in GIS perché ci piace creare mappe di bell'aspetto, ma l'errore che facciamo è pensare che anche a tutti gli altri piacciano le mappe. Quando ho iniziato a lavorare nel GIS governativo, sono rimasto stupito dalla frequenza con cui mi è stato chiesto di creare un report che mostrasse i risultati delle mie analisi (ad esempio, un report contenente una tabella che riassumesse il numero di acri di diversi tipi di vegetazione che saranno interessati da una proposta di sviluppo). Nessuna mappa nessun poligono su una bella foto aerea – solo una tabella di numeri che rappresenta i risultati di un'analisi geografica. C'erano ancora molte analisi GIS interessanti per la generazione del rapporto, ma il prodotto finale non era una mappa.

Sebbene il software possa essere cambiato, non è necessario, quindi continuerò a consigliare di imparare come progettare e creare report delle analisi GIS. Oggi lo realizzeremmo con Reports for ArcGIS. Quindi, per imparare a utilizzare gli strumenti di reporting integrati, vedere i seguenti collegamenti:

Conclusione 2013 2013

Sebbene abbia scritto questo post nel contesto dell'acquisizione delle competenze necessarie per ottenere un lavoro GIS, queste sono competenze ugualmente appropriate per coloro che sono già impiegati in GIS. L'industria continua a cambiare rapidamente e puoi arrugginire abbastanza velocemente se non stai al passo. Ogni nuova versione del software offre nuove funzionalità che offrono nuove opportunità per apprendere una nuova abilità o per ampliare la nostra base di conoscenze esistente. Ad esempio, di recente ho imparato a scrivere e distribuire applicazioni ArcObjects nel nuovo framework ad-in di ESRI e ho intenzione di imparare a utilizzare il nuovo framework ad-in Python in ArcGIS 10.1.

L'apprendimento di queste competenze GIS utilizzabili è anche un ottimo investimento. I lavori GIS sono ancora classificati molto in alto nelle prospettive di crescita del lavoro: il Bureau of Labor Statistics elenca una crescita prevista del 35% dei posti di lavoro per "Geografi" (http://www.bls.gov/ooh/life-physical-and-social- science/geographers.htm). Se stai cercando il tuo primo lavoro GIS o stai cercando di trasferirti in una nuova organizzazione, queste abilità ti renderanno molto più commerciabile rispetto alla tua tipica concorrenza.

Infine, ho cercato di identificare quelle competenze che ritengo importanti per ottenere e mantenere una posizione GIS. Mi sono anche concentrato sulle competenze che un analista o specialista GIS dovrebbe conoscere. Se hai letto questo e ti vengono in mente altre abilità importanti che non ho menzionato, lascia un commento a beneficio della comunità più ampia.


Guarda il video: Using Parameters in ModelBuilder