Riconoscimento di glifi'

Riconoscimento dei glifi (o glifi ottici come vengono chiamati più frequentemente) è piuttosto un argomento di intersezione, che ha applicazioni in una gamma di diverse aree. L'applicazione più popolare di glifi ottici è la realtà aumentata, dove computer vision algoritmo li trova in un flusso video e sostituisce con oggetti generati artificialmente, creando una visione che è mezzo vero e mezzo virtuale - oggetti virtuali in un mondo reale. Un'altra area di applicazione glifi ottico è la robotica, dove glifi possono essere utilizzati per impartire comandi a un robot o aiutare il robot per navigare all'interno di un ambiente, dove i glifi possono essere utilizzati per dare indicazioni di robot. Ecco una delle demo dell'applicazione ottica glifi bello:

 

 IPPrototyper tool

 

Modelli di Markov nascosti

Viene illustrato come utilizzare modelli di Markov nascosti (HMMs) e Markov sequenza classificatori per riconoscere le sequenze di osservazioni discreti.

 

 

Cinematica di Denavit-Hartenberg

Denavit-Hartenberg forward kinematics sample application.

Viene illustrato come utilizzare i parametri di Denavit-Hartenberg ed equazioni alle catene cinematiche modello.

 

Levenberg-Marquardt

Levenberg-Marquardt algorithm for Approximation, Time Series, and the XOR problems.

Dimostrando l'utilizzo delle applicazioni di Neuro per lavorare con Levenberg-Marquardt invece di Backpropagation. Include soluzioni per approssimazione, previsione di serie temporali e l'esclusiva- o (XOR) problema usando reti neurali addestrate di Levenberg-Marquardt.

 

 

 

Impronte digitali Verifica

 

Riconoscimento delle impronte digitali è oggi un'area di ricerca attiva. Un componente importante nei sistemi di riconoscimento delle impronte digitali è l'algoritmo di corrispondenza delle impronte digitali. Secondo il dominio del problema, algoritmi di corrispondenza delle impronte digitali sono classificati in due categorie: algoritmi di verifica di impronte digitali e algoritmi di identificazione di impronte digitali. Lo scopo degli algoritmi di verifica delle impronte digitali è di determinare se le due impronte vengono dal dito stesso o non. D'altra parte, gli algoritmi di identificazione delle impronte digitali cerca un'impronta di query in un database, cercando le impronte digitali provenienti dal dito stesso.

Questa Demo illustra il riconoscimento delle impronte digitali e l'identificazione.

Quadratica (QP) solutore di programmazione

Quadratic programming with the Goldfarb-Idnani solver.

Quadratica programmazione (QP) risoluzione dei problemi utilizzando il metodo doppio di Goldfarb e innocenti.

 

Almeno parziale piazze (PLS)

Viene illustrato come utilizzare i minimi quadrati parziali per adattare un (multiple e multivariata) modello di regressione lineare da dati ad alta dimensionalità.

 

Analisi di regressione lineare e logistica

Applicazione di esempio per la creazione e montaggio di modelli di regressione logistica. Inoltre si adatta un modello di regressione lineare multipla ai fini del confronto ed esegue il test del chi-quadrato e calcola la statistica di Wald per i coefficienti di regressione logistica.

 

Ricevitore caratteristica (ROC) curve di funzionamento

Applicazione di esempio che illustra come creare e visualizzare le curve caratteristiche ricevitore-operativo da un dato insieme di risultati da una prova o un processo di classificazione.

 

Rischi proporzionali di Cox

Come eseguire analisi di sopravvivenza utilizzando il modello di rischi proporzionali di Cox per la regressione e la previsione dei dati tempo-censurata.

 

Classificazione di Bayes normale

Che cosa è un classificatore di Bayes normale

Un normale Bayes Classifier è anche conosciuto come il Naive Bayes Classifier.

Secondo wikipedia

Un classificatore di naïve Bayes è un termine bayesiano statistiche trattando un classificatore probabilistico semplice basato su applicando il teorema di Bayes con ipotesi di indipendenza forte (ingenuo). Un termine più descrittivo per il modello di probabilità sottostante sarebbe "modello caratteristica indipendente".

In termini semplici, un Naive Bayes classifier presuppone che la presenza (o assenza) di una particolare caratteristica di una classe è correlato alla presenza (o assenza) di qualsiasi altra caratteristica. Ad esempio, un frutto può essere considerato una mela se è rosso, tondo e circa 4" di diametro. Anche se queste caratteristiche dipendono l'esistenza delle altre caratteristiche, un Naive Bayes classifier considera tutte queste proprietà di contribuire autonomamente alla probabilità che questo frutto è una mela.

A seconda della natura precisa del modello di probabilità, naïve Bayes classificatori possono essere addestrati in modo molto efficiente in un ambiente di apprendimento supervisionato. In molte applicazioni pratiche, stima dei parametri per modelli di naïve Bayes utilizza il metodo della massima verosimiglianza; in altre parole, uno può lavorare con il modello Naive Bayes senza credere in probabilità bayesiana o utilizzando metodi bayesiani.

Nonostante il loro disegno ingenuo e ipotesi apparentemente troppo semplificate, naïve Bayes classificatori spesso funzionano molto meglio in molte situazioni reali complesse quanto ci si potrebbe aspettare. Recentemente, un'attenta analisi del problema classificazione Bayesiana ha dimostrato che ci sono alcune ragioni teoriche per l'apparentemente irragionevole efficacia del naïve Bayes classificatori. [1] un vantaggio del classificatore Naive Bayes è che richiede una piccola quantità di dati di training per stimare i parametri (mezzi e varianze delle variabili) necessari per la classificazione. Poiché variabili indipendenti sono presupposte, solo le varianze delle variabili per ogni classe di necessità di essere determinato e non dalla matrice di covarianza intero.

NormalBayes.png

 

K più vicini vicini

Che cosa è un classificatore K di vicini più vicina

Secondo wikipedia,

Nel riconoscimento di pattern, il k-nearest vicini (k-NN) è un algoritmo per la classificazione di oggetti basati sulle più vicina nello spazio caratteristica. k-NN è un tipo di apprendimento basati sull'istanza o pigro apprendimento dove la funzione è solo approssimata localmente e calcolo tutti viene posticipata fino alla classificazione. Può essere utilizzato anche per la regressione.

 

KNearest.png

 

SVM (Support Vector Machine

Che cosa è una macchina di vettore di sostegno

Secondo wikipedia,

Macchine di vettore di sostegno (SVMs) sono un insieme di correlati supervisionato imparando i metodi utilizzati per la classificazione e regressione. Visualizzazione di dati di input come due insiemi di vettori in uno spazio n-dimensionale, un SVM costruirà un iperpiano separazione in quello spazio, quella che massimizza il margine tra i due insiemi di dati. Per calcolare il margine, sono costruite due iperpiani paralleli, uno su ciascun lato dell'iperpiano separazione, che sono "spinto verso l'alto contro" i due insiemi di dati. Intuitivamente, si ottiene una buona separazione l'iperpiano che ha la più grande distanza i datapoints vicini di entrambe le classi, poiché in generale maggiore il margine più basso l'errore di generalizzazione del classificatore.

SVM.png

Expectation-Maximization

Che cosa è un classificatore Expectaion-Maximization

Secondo wikipedia,

Un algoritmo di aspettativa-massimizzazione (EM) è utilizzato in statistica per trovare le stime di massima verosimiglianza dei parametri nei modelli probabilistici, dove il modello dipende da variabili latenti inosservate. EM è un metodo iterativo che alterna l'esecuzione di un passo di aspettativa (E), che calcola l'aspettativa della probabilità registro per quanto riguarda la stima attuale della distribuzione per le variabili latenti e un passo di massimizzazione (M), che calcola i parametri che massimizzare la probabilità di registro previsto trovato nel passaggio E. Questi parametri sono poi utilizzati per determinare la distribuzione delle variabili latenti nel passaggio successivo E.

 

ExpectationMaximization.png

 

Simulazione di reti neurali di retro-propagazione

Questo è semplice simulazione di rete neurale retro-propagazione


pic4.png

pic5.png

 

I nostri partner

itresearches Discover our Technology Demonstrations : http://t.co/Bm1s6kIFub http://t.co/9JcATBDbUc

Entrare in contatto con noi!

Newsletter

Address

Address:
34 New House, 67-68 Hatton Garden, London, England, EC1N 8JY, City of London
Toll(UK):
+448000786364
Fax(UK) :
+448458520997

About Us

IT Researches ltd is an information technology company & International computer research centre offering a wide variety of 'AI Powered™' IT services for companies and researchers worldwide .

Connet With Us