rescap_logo_v2_alpha

 


 

 

poster_rescap

Il poster di Rescap presentato ad INISTA 2014

INTRODUZIONE AL PROGETTO

Il progetto Rescap si prefigge l’obiettivo di migliorare la qualità della vita di soggetti affetti da deficit psicologici e/o fisici attraverso la riqualificazione dei loro ambienti vitali quotidiani.

Questa riqualificazione segue dei requisiti individuati da una fase di ricerca della configurazione degli ambienti tale da indurre la quantità minore di stress sull’individuo che li vive. Attraverso una fase di virtualizzazione di tali ambienti, il paziente viene immerso in una replica virtuale dei suoi ambienti quotidiani, all’interno della quale è possibile variare in tempo reale alcune caratteristiche, osservando in tempo reale le reazioni del soggetto e misurandone la quantità di stress percepita.

La determinazione della quantità di stress è ottenuta attraverso il riconoscimento di pattern ben precisi nei tracciati prodotti da strumenti come l’elettroencefalogramma (EEG), elettrocardiogramma (ECG) ed altri sensori come SSR (Sympathetic Skin Response) e di respirazione toracica.

Individuata la configurazione più adatta degli ambienti, la si implementa servendosi di tecnologie domotiche avanzate, accessibili da parte del paziente mediante interfacce tattili o vocali.

Ad implementazione completata, durante la fruizione dei nuovi ambienti, un contact center terrà sotto controllo remoto la situazione clinica ed emotica del paziente e un team di esperti valuterà in casi particolari se apportare modifiche o meno al comportamento del sistema domotico.

 

IL PARTENARIATO

PMI Laboratori di ricerca Utente finale
AMT Services S.r.l.

Trait d’Union S.r.l.
eResult S.r.l.

SER & Practices S.r.l.

Laboratorio di Informatica Industriale, Politecnico di Bari

Consorzio CETMA

Dipartimento di SMBNOS, Università degli Studi di Bari

 

CONTRIBUTO DEL POLITECNICO

Il Laboratorio di Informatica Industriale, rappresentante il Politecnico di Bari, partecipa al progetto Rescap come laboratorio di ricerca a supporto degli altri partner, fornendo skills negli ambiti della realtà virtuale, acquisizione, elaborazione delle immagini e visione artificiale in generale.

 

DESCRIZIONE DEL SISTEMA SVILUPPATO

Il sistema Rescap si propone di individuare la configurazione con la minore quantità di stress intervenendo sulle seguenti caratteristiche degli ambienti:

  • Scuri automatici delle finestre;
  • Variazione del colore dell’illuminazione delle stanze;
  • Variazione colore delle pareti delle stanze attraverso strip led;
  • Riproduzione e diffusione di voci familiari per il paziente;
  • Riproduzione e diffusione suoni ambientali negli ambienti;
  • Percorsi luminosi di colore diverso a seconda della stanza verso cui conducono, da installare sul pavimento.

 

RICONOSCIMENTI

Premio Sociale IEEE International Symposium on INnovations in Intelligent SysTems and Applications (23-25 Giugno 2014, Alberobello), per il maggiore gradimento sulla piattaforma dei Living Labs.

PREMI

 

DIFFUSIONE RISULTATI E PUBBLICAZIONI

I risultati verranno diffusi in accordo alla procedure tipiche di un Living Lab, ovvero tramite laboratori aperti ai cittadini, i quali partecipano attivamente alla discussione dei requisiti e delle caratteristiche del progetto, sperimentando in prima persona quanto sviluppato.

Fiera del Levante Bari – InnovaPuglia – SMAU 2014

 

Settimana Mondiale del Cervello 2015 – Policlinico di Bari

Download della presentazione
Programma televisivo Nautilus – 11 febbraio 2015 – canale RaiScuola

 

 

 

Smart Innovation People Gallery – “Innovactors” Bari, 29 September 2014

 

 

BIBLIOGRAFIA

  1. Vitoantonio Bevilacqua, Antonio Brunetti, Davide de Biase, Giacomo Tattoli, Rosario Santoro, Gianpaolo Francesco Trotta, Fabio Cassano, Michele Pantaleo, Giuseppe Mastronardi, Fabio Ivona, Marianna Delussi, Anna Montemurno, Katia Ricci, Marina de Tommaso: “A P300 Clustering of Mild Cognitive Impairment Patients Stimulated in an Immersive Virtual Reality Scenario”, ICIC 2015
layout_set_logo

 

INTRODUZIONE AL PROGETTO

 

IHCS ( Innovative Health Care System ) è un progetto finanziato dalla regione Puglia in ambito di un bando Living Lab, al quale hanno preso parte diverse aziende con l’obiettivo di sviluppare un sistema di telemedicina, atto a favorire la riabilitazione ed il monitoraggio costante di pazienti affetti da malattie rare neurodegenerative.

L’architettura logico – fisica del sistema è costituita da un nodo centrale ( portale web ) che ha il compito di tenere traccia di informazioni relative a quattro tipi di attori: pazienti, care giver , medici di base e\o specialisti.

In qualsiasi momento, ciascuno di questi attori è in grado di accedere ad una serie di informazioni ( opportunamente filtrate a seconda dei casi ) tramite il portale web.

E’ importante sottolineare che l’intero progetto è finalizzato a monitorare un determinato sottoinsieme di pazienti, ovvero coloro che sono affetti da malattie neurodegenerative, nella fattispecie la malattia di Huntington.

 

Partenariato

Gli attori che vi hanno preso parte sono:

 

Contributo del Politecnico

 

Il  Laboratorio di Informatica Industriale (Politecnico di Bari), nel ruolo di fornitore di ricerca nei confronti di A.M.T. Services, si è occupato di progettare ed implementare il modulo periferico IAPS System: un sistema innovativo per l’analisi ed il monitoraggio non invasivo del degrado cognitivo che la malattia comporta.

 

Stato dell’Arte

Lo stato dell’arte in ambito di analisi di HD ( Huntington Disease ) prevede le seguenti tecniche:

  1. Esame del Liquor [ molto invasivo ] -> consiste nel prelievo, tramite puntura, del liquido cerebro spinale che circonda il cervello ed il midollo spinale
  2. BCI ( o Brain Computer Interface ) [ mediamente invasivo ] -> consiste nel far indossare al paziente un casco con degli elettrodi in grado di rilevare le onde cerebrali
  3. test IAPS -> si tratta di un database di immagini suddivise in tre categorie ( positive, negative e neutre ) che vengono mostrate al paziente al fine di valutarne le capacità cognitive, sulla base dei voti forniti su tre scale ( piacevolezza, eccitazione, coinvolgimento emotivo ) da 9 livelli.
immagine negativa

immagine negativa

immagine neutra

immagine neutra

immagine positiva

immagine positiva

 

IAPS SYSTEM

IAPS System: architettura

architetturaIAPS   L’architettura fisica prevede l’utilizzo di un semplice personal computer dotato di webcam, mentre a livello logico il sistema consta di tre parti: il modulo di emotion detection, il modulo di somministrazione del test IAPS ( completamente informatizzato ), il modulo di archiviazione della storia clinica del paziente.

IAPS System: il test

 

L’operatore avrà la possibilità di scegliere il numero di immagini da somministrare ( l’elenco sarà generato in maniera del tutto casuale ) ed eventualmente, tramite l’apposito pulsante di Anteprima, calibrare l’inquadratura del paziente.

E’ inoltre possibile scegliere se effettuare l’analisi dell’espressività facciale in realtime, oppure registrare il video ed effettuarla in un secondo momento.

Quindi, una volta lanciato il test, saranno mostrate al paziente le immagini di IAPS, temporizzate con una frequenza di 3.5 ms, intervallate da un black panel ( utile ad evitare la polarizzazione del soggetto su una determinata emozione ).

Durante la proiezione, il paziente viene ripreso dalla webcam e, nel caso dell’elaborazione realtime, il sistema procede ad estrarre delle features facciali dal volto, combinandole opportunamente secondo i principi del FACS ( facial action coding system ).

FACS - esempio di Action Units

FACS – esempio di Action Units

In particolare, le emozioni estratte possono corrispondere alle 6 emozioni di base, teorizzate da Ekman e Friesen, ovvero  rabbia, disgusto, paura, felicità, tristezza, stupore in aggiunta all’emozione neutra.

Il risultato sarà, in questo caso, l’intensità delle emozioni rilevate sul volto del paziente, associate a ciascuna immagine.

Nel caso in cui si scelga di non effettuare l’analisi realtime, il sistema provvederà a registrare ed archiviare il video del paziente, avendo cura di tener traccia della corrispondenza frame/immagine visualizzata.

In entrambi i casi succitati, l’operatore procede, successivamente, a somministrare al paziente, immagine per immagine, le tre domande relative al livello di piacevolezza, eccitazione e coinvolgimento, e raccogliendone i vari livelli nell’apposito form.

Ciascuna visita effettuata scegliendo la semplice registrazione del video, permette di attivare una finestra di visita offline, nella quale è possibile lanciare l’algoritmo e contestualmente visualizzare a schermo il risultato dell’analisi.

Riconoscimenti

Vincenzo Piuri, Vice Presidente per le Attività Tecniche dell’IEEE, ha proclamato ieri mattina il poster realizzato dal progetto IHCS vincitore del “premio qualità scientifica“, ritenendolo il più rilevante scientificamente. Ha poi consegnato a Laura De Rocco, relatrice della presentazione, un simbolico, ma prestigioso riconoscimento.

laurarocco bvrescap

skin_logo

INTRODUZIONE AL PROGETTO

Il progetto SKIN intende puntare sull’innovazione del prodotto editoriale realizzata da coloro che insieme rappresentano tutti gli anelli della filiera produttiva. A tal fine si sono individuate delle linee di azione che costituiscono un ampliamento dell’offerta di prodotti e servizi utili al mondo dell’editoria:

  1. Implementazione di procedure che consentano alle aziende editoriali il recupero dei contenuti da prodotti originariamente e prevalentemente destinati alla stampa, la loro suddivisione in contenuti elementari atomici semanticamente definiti, la loro catalogazione tipologica e la loro archiviazione in una base di dati con possibilità di revisione/integrazione/elaborazione di nuovi contenuti.
  2. Ideazione e implementazione di prototipi di prodotti editoriali che utilizzino contenuti proprietari atomizzati, ne consentano la valorizzazione e risultino flessibili e facilmente adattabili al target di destinazione (editori o utenti finali).
  3. Progettazione e implementazione di una innovativa piattaforma di ricerca, aggregazione e delivery di contenuti, accessibile sia da web che da dispositivi mobile, realizzando un aggregatore personalizzato di risorse e un sistema di fruizione e delivery sia per singole unità che per unità complesse.

PARTENARIATO

  • GRAPHISERVICE S.r.l.
  • MEDIA BROADCAST COMMUNICATION s.a.s.
  • FOTOLITO 38 S.r.l.
  • QUORUM ITALIA S.r.l.
  • POLITECNICO DI BARI – LABORATORIO DI INFORMATICA INDUSTRIALE

CONTRIBUTO DEL POLITECNICO

Il laboratorio di Informatica Industriale, rappresentante il Politecnico di Bari, fornendo skills negli ambiti delle interfacce utente e della realizzazione di plugin per l’interazione dell’utente con contenuti editoriali multimediali (ebook in formato epub di terza generazione), partecipa al Progetto SKIN come laboratorio di ricerca e sviluppo della piattaforma di aggregazione, delivery e ricerca di contenuti, accessibile sia da web che da mobile (smartphone/tablet iOS e Android).

DESCRIZIONE DEL SISTEMA SVILUPPATO

La piattaforma di ricerca di contenuti, aggregazione e delivery sviluppata dal Laboratorio di Informatica nell’ambito del progetto SKIN si propone di fornire, all’utente finale, un’APP Android e un portale web che permetta la fruizione e l’interazione dell’utente finale con il contenuto editoriale multimediale. In particolare permette di:

  • Effettuare il login
  • Ricercare e visualizzare un elenco di contenuti editoriali multimediali locali
  • Ricercare e visualizzare un elenco di contenuti editoriali multimediali remoti
  • Selezionare e fruire dei contenuti locali (anche interattivi)
  • Selezionare, effettuare il download e fruire die contenuti remoti (anche interattivi)
  • Sottolineare, evidenziare e disegnare a mano libera scegliendo colore e tratto della penna
  • Inserire e salvare annotazioni
  • Sincronizzare le annotazioni in remoto
  • Condividere sui social network parte di contenuti editoriali multimediali
  • Completare esercitazioni verificandone la corretta risoluzione
  • Effettuare il text to speech
  • Gestire la lingua dell’interfaccia
fit

INTRODUZIONE AL PROGETTO

Il progetto di ricerca SS-RR (Sviluppo di un Sistema per la Rilevazione della Risonanza) si pone l’obiettivo di sviluppare delle metodologie che, supportate da tecnologie esistenti, possano dar vita a servizi innovativi. In particolare lo scenario in cui ci si muove è quello in cui vi è interesse a rilevare i livelli di armonia relativi ad uno o più individui in relazione ad una serie di eventi e stimoli esterni. Ci si riferisce, ad esempio, alla misurazione del gradiente di soddisfazione di un interlocutore, al gradiente di felicità di un soggetto intervistato, al gradiente di interesse di uno studente nel corso di una lezione, etc. Da questo punto di vista, l’innovazione e l’utilità portati dal programma potranno tradursi nella moderna volontà di conoscere la sintonia esistente tra le persone che interagiscono, nella misurazione della accresciuta conoscenza, preparazione o interesse maturati a valle di un confronto, di un dialogo, di una lezione, di un’indagine, di un’esperienza di gruppo. Il Tema del Programma ovviamente riguarda il Settore dell’ICT – Informatica (architettura e sistemi di elaborazione) e prevede lo sviluppo di applicazioni software in grado di girare su opportuni dispositivi hardware. Attualmente esistono dispositivi con alcune di tali funzionalità, si pensi per esempio alle cosiddette macchine della verità, ma essi risultano essere di fatto inutilizzabili in contesti reali e difficilmente accettabili dagli utenti a causa della loro invasività. Questo progetto ha l’obiettivo di utilizzare le tecnologie attualmente disponibili sul mercato per creare dei servizi a valore aggiunto. In particolare utilizzando dispositivi quali smart-phone, iPhone, palmari, portatili di ultima generazione è possibile pensare di utilizzare dei software associati ad opportuna sensoristica in grado di acquisire informazioni sullo stato emotivo di chi si sta monitorando. I dati a cui si fa riferimento sono quelli propri del corpo umano sottoposto a particolari sollecitazioni fisico-emotive. Dall’incrocio di questi dati sarà possibile, attraverso sofisticati modelli propri della psicologia, ricostruire il gradiente di soddisfazione di un interlocutore, il gradiente di felicità di un soggetto intervistato, il gradiente di interesse di uno studente nel corso di una lezione, etc. Come precedentemente argomentato, quindi, non sarà necessario utilizzare sofisticate apparecchiature invasive, ma unicamente sfruttare le possibilità fornite dai moderni dispositivi, l’introduzione di modelli derivanti dalla psicologia e in grado di legare parametri fisici-emozionali a stati della persona e l’utilizzo di software appositamente progettati ed implementati in grado di collezionare, attraverso l’utilizzo di semplici dispositivi non invasivi, simili all’iPod per tipologia e dimensione, i dati.

Obiettivo del Progetto

Attraverso lo sviluppo della presente iniziativa si è progettato e implementato un Sistema per la rilevazione della Risonanza nei processi di profilazione e selezione del personale, tra due o più soggetti, al fine di misurare il gradiente di risonanza rilevabile quale parametro di effettiva sinergia esistente. L’obiettivo è stato dunque quello di realizzare un software che possa essere installato a bordo di strumentazioni da utilizzarsi durante la fase di un colloqui di selezione del personale, o anche semplicemente di selezione di un interlocutore, non necessariamente sottoposto a valutazione ai fini di una possibile assunzione. Uno scenario tipico è mostrato in Figura 1. Il software rileva il movimento, oltre che consentire la registrazione, al fine poi di elaborare immagini e suoni per convertire i riscontri in sintetici indicatori di risultato. Il suddetto software può essere caratterizzato come un framework in grado di misurare la risonanza tra due o più soggetti al fine di misurare l’effettiva sinergia esistente. In particolare l’obiettivo è quello di inferire, a partire da dati legati ai parametri psico-attitudinali degli individui, il loro livello di sinergia. L’approccio utilizzato finora per derivare i parametri psico-attitudinali si sono rivelati spesse volte troppo invasivi, in quanto le tecnologie utilizzate costringevano l’utente a dover applicare sensori, e in parte a falsare il loro atteggiamento del valutando, in quanto consapevole di essere monitorato. Lo svilupparsi di nuove tecnologie, e la possibilità di tradurre in software quanto prima veniva invece declinato solo sotto forma di apparecchiature hardware, permette la ricerca della ottimizzazione dei dispositivi e un loro utilizzo più razionale. Allo scopo sono stati implementati degli algoritmi che, a partire da dati ottenuti attraverso degli opportuni sensori di tipo general purpose, quali rilevatori di movimento, apparati di registrazione della voce, videocamere, possano inferire informazioni sullo stato emotivo degli utenti monitorati. In tale scenario l’utilizzo di modelli psico-attitudinali, approcci probabilistici, in grado di permettere una rigorosa descrizione dei rapporti di sinergia, delle loro componenti e dei legami che intercorrono fra loro, permettono il raggiungimento degli obiettivi prefissi. Quindi il progetto percorre le seguenti direttrici principali:

  • Progettazione e implementazione di modelli psico-attitudinali in grado di misurare la sinergia fra utenti: in questo contesto sono stati indagati i modelli presenti in letteratura ed in seguito si sono identificati i parametri da quantificare;
  • A valle dell’identificazione dei parametri da quantificare sono stati identificati i sensori in grado di catturare i parametri e le tipologie di analisi da condurre sui dati da essi acquisiti. I sensori sono stati selezionati in modo da essere scarsamente invasivi e permettere all’utente di agire, nell’ambito dei contesti in cui avviene la misurazione, nel modo più naturale è possibile;
  • Progettazione ed implementazione di software in grado di inferire dai dati ottenuti dai sensori informazioni sulla sinergia degli utenti coinvolti. In particolare si provveduti a sviluppare strumenti che a partire dai dati siano in grado di inferire dei concetti relazionati allo stato emotivo dell’utente ed organizzare gli stessi in mappe concettuali in grado di permettere una loro manipolazione o sotto forma di formalismi probabilistici e sotto forma di dati grezzi a cui accedere con tecniche proprie del data-mining.
rrss

Figura 1: Scenario tipico di applicazione

PARTENARIATO

AMT Services SRL

Laboratorio di Informatica Industriale – Dipartimento di Ingegneria Elettrica e dell’Informazione, Politecnico di Bari.

METODI

L’intero applicativo si basa sulla progettazione, l’implementazione ed infine l’integrazione di tre moduli indipendenti in grado di lavorare ciascuno sul proprio dominio di interesse: facciale, vocale e gestuale.

In particolare dal video dove è conservato il profilo facciale dell’utente vengono estratte le action units (AUs) nonché azioni facciali minimali le cui combinazioni creano le espressioni facciali. Un esempio di AUs sono l’innalzamento dell’angolo interno alla sopracciglia sinistra, rughe frontali, movimento delle labbra e così via, come mostrato in Figura 2. In Figura 3, è mostrato invece il workflow con cui vengono estratte le AUs.

Figura 2: Action Units estratte

Figura 2: Action Units estratte

Figura 3: Workflow per la rilevazione delle features

Figura 3: Workflow per la rilevazione delle features

Nel dominio del vocale, vengono estratte alcune features di tipo prosodiche e spettrali come ad esempio il Pitch, gli MFCC e l’armonicità. Tutte queste features avendo un’elevata variabilità frame per frame, sono stati considerati alcuni indicatori statistici come il valor medio, la deviazione standard, valore minimo, massimo e range.

Per il dominio del gestuale, è stato sviluppato un sistema in grado di riconoscere 13 diverse azioni umane. Andando a processare la mappa di profondità si sono estratte diverse features che corrispondono a joints e distanze tra i vari joints. Un esempio di joints sono spalla sinistra, torso, mani, gomiti e così via, come mostrato in Figura 4.

kinet

Figura 4: Feature estratte dal dominio gestuale

In Figura 5 è mostrata l’architettura del sistema, illustrando come le varie componenti sono tutte separate fino alla loro fusione per la determinazione dello stato di risonanza e di dissonanza.

architett

Figura 5: Architettura del sistema

In Figura 6 è mostrata invece l’interfaccia grafica del prodotto software finale dove in alto a sinistra sono mostrate le elaborazioni facciali (descrittori sul viso) e gestuali (scheletro), in alto a destra vi è la valutazione delle emozioni in tempo reale con i relativi plot in basso.

Figura 6: Screenshot della GUI.

Figura 6: Screenshot della GUI

Ambiente mobile iOS/Android

Tra gli obiettivi del progetto vi era anche la progettazione e lo sviluppo di applicazioni in ambiente mobile sulle piattaforme più affermate come quella iOS di Apple e Android di Google. In particolare è stato effettuato il porting e la reimplementazione degli algoritmi per le suddette piattaforme. Tali app si pongono come obiettivo il riconoscimento delle emozioni sia a partire dal segnale vocale che dalle espressioni facciali, al fine di monitorare il livello di attenzione di un pilota di aereo, oppure il livello di soddisfazione di un cliente, oppure per monitorare il livello di stress dei dipendenti di un’azienda, o per la selezione del personale.

Ambiente iOS

Il seguente applicativo cattura uno stream video dalla fotocamera del dispositivo o dalla galleria e dopo averlo processato mostra qual è lo stato emozionale del soggetto.

3

Ambiente iOS

In un secondo step, viene catturato lo stream audio e successivamente processato mostrando lo stato emozionale del soggetto.

7

Ambiente iOS

Nel seguente screenshot viene mostrato come è possibile verificare le corrispondenza tra le varie emozioni facciali e vocali ottenute dai due algoritmi.

10

Ambiente iOS

Ambiente Android

In ambiente Android, i requisiti funzionali per quanto concerne il riconoscimento delle emozioni vocali sono pressoché identici. Come mostra il seguente screenshot, dall’applicativo è possibile sia avviare una esecuzione real-time sia una esecuzione offline mediarte un file pre-registrato. Durante l’esecuzione verranno mostrat, mediante le progress bar, lo status emotivo.

55

Ambiente Android

BIBLIOGRAFIA

  1. Vitoantonio Bevilacqua, Donato Barone, Francesco Cipriani, Gaetano D’Onghia, Giuseppe Mastrandrea, Giuseppe Mastronardi, Marco Suma, Dario D’Ambruoso: “A new tool for gestural action recognition to support decisions in emotional framework”, IEEE INISTA 2014, pp 184-191, (June 2014). [DOI]
  2. Vitoantonio Bevilacqua, Angelo Antonio Salatino, Carlo Di Leo, Dario D’Ambruoso, Marco Suma, Donato Barone, Giacomo Tattoli, Domenico Campagna, Fabio Stroppa, Michele Pantaleo: Evaluation of Resonance in Staff Selection through Multimedia Contents. ICIC (2) 2014: 185-198 [DOI]
  3. Vitoantonio Bevilacqua, Pietro Guccione, Luigi Mascolo, Pasquale Pio Pazienza, Angelo Antonio Salatino, Michele Pantaleo: First Progresses in Evaluation of Resonance in Staff Selection through Speech Emotion Recognition. ICIC (2) 2013: 658-671 [DOI]
  4. Vitoantonio Bevilacqua, Marco Suma, Dario D’Ambruoso, Giovanni Mandolino, Michele Caccia, Simone Tucci, Emanuela De Tommaso, Giuseppe Mastronardi: A Supervised Approach to Support the Analysis and the Classification of Non Verbal Humans Communications. ICIC (1) 2011: 426-431 [DOI]
  5. Claudio Loconsole, Domenico Chiaradia, Vitoantonio Bevilacqua, Antonio Frisoli: Real-Time Emotion Recognition: An Improved Hybrid Approach for Classification Performance. ICIC (1) 2014: 320-331 [DOI]
Progetto Met-AAL

 


 

INTRODUZIONE AL PROGETTO

I dati Istat definiscono che quasi più di 15 milioni di persone in Italia hanno più di 60 anni e ci sono quasi 3 milioni di disabili, cioè soggetti con una qualsiasi disabilità motoria, sensitiva e/o cognitiva. All’interno di questa fetta di popolazione, i sistemi domotici assistiti rappresentano una soluzione importante per garantire una vita migliore, per ridurre la distanza tra funzionalità residue della persona, con limitazioni sensoriali e/o motorie, e requisiti dell’ambiente in cui essa vive.

Il progetto Met-AAL (METhodology and instruments for pervasive model in Ambient Assisted Living) è stato finanziato dalla regione Puglia in ambito del bando: FESR “AIUTI A SOSTEGNO DEI PARTENARIATI REGIONALI PER L’INNOVAZIONE” (POR FESR 2007-2013 Obiettivo Convergenza – ASSE I – Linea 1.2 – Azione 1.2.4 “Investiamo nel vostro futuro”), al quale hanno preso parte diverse aziende pugliesi leader nel proprio settore. L’obiettivo è stato quello di definire e realizzare una piattaforma di ambient intelligence dotata di tecnologia pervasiva utile per fornire supporto, assistenza e servizi ai soggetti con carenze di autosufficienza. Ogni elemento disposto nell’ambiente costituirà un nodo di rete in grado di trasferire informazioni ad un sistema di monitoraggio e controllo che, tramite algoritmi previsionali, adeguerà la risposta dell’ambiente in funzione del contesto percepito e delle esigenze del soggetto.

In particolare, i moduli realizzati sono i seguenti:

  • Modulo di riconoscimento di comandi vocali
  • Modulo attuazioni domotiche
  • Modulo di rilevamento caduta
  • Modulo di monitoraggio parametri vitali
  • Modulo di comunicazione con l’esterno
  • Modulo memoria

PARTENARIATO

Gli attori che vi hanno preso parte sono:

  • MATRIX SpA
  • BAUTECH S.R.L.
  • CUPERSAFETY SAS DI MONTANARO GIUSEPPE & C
  • ESCOOP European Social Cooperative
  • LABORATORIO ANALISI CLINICHE DR. P.PIGNATELLI SRL
  • AMT SERVICES SRL
  • AGILEX SRL
  • ENA CONSULTING S.R.L.
  • ORIZZONTI S.COOP. a R.L.
  • ITEM OXYGEN S.R.L.
  • UNIVERSITÀ DEL SALENTO – Dipartimento di Ingegneria dell’Innovazione
  • CONSIGLIO NAZIONALE DELLE RICERCHE CNR- -IMM

Numerose attività sono state realizzate con la collaborazione del Politecnico di Bari – Dipartimento di Ingegneria Elettrica e dell’Informazione (DEI).

CONTRIBUTO DEL POLITECNICO

Il  Laboratorio di Informatica Industriale (DEI – Politecnico di Bari), nel ruolo di fornitore di ricerca nei confronti di A.M.T. Services S.r.l. e di Agilex S.r.l, si è occupato di progettare ed implementare il modulo di rilevamento caduta e di riconoscimento di comandi vocali.

MODULO DI RILEVAMENTO CADUTA


Il modulo di rilevamento caduta è stato sviluppato con l’uso del sensore Microsoft Kinect. La scelta di utilizzare questo sensore è da ricercarsi nel suo buon rapporto qualità/prezzo, considerando nella qualità gli aspetti legati alla risoluzione, precisione nella misura e range di azione, nonché accessibilità ai flussi 2D e 3D e grande fermento nello sviluppo e supporto di applicazioni in ambito di ricerca e non solo.

kinect

Per quanto concerne l’implementazione software del modulo, è stato sviluppato un algoritmo in grado di rilevare delle caratteristiche robuste (features) dell’evento suddetto, da estrarre a partire dalla nuvola di punti acquisita dal sensore.

Il sistema è stato dimensionato affinché gli algoritmi implementati presentino prestazioni real-time e costi computazionali bassi.

Sulla base delle specifiche dell’ambiente, viene individuata la zona ottimale dove andare a posizionare il sensore, per ottenere le massime performance di acquisizione, ridurre al minimo i disturbi e dimensionare l’area in cui l’utente resta nel campo d’azione del sensore minimizzando le zone d’ombra dalla telecamera.

La fase di test è stata effettuata in modalità offline, sulla base di sessanta video registrati da dieci persone differenti, in scenari simili ad ambienti domestici, riscontrando un livello di accuratezza pari all’85%.

Ciò dimostra le buone performance avute in fase di testing dall’algoritmo, in aggiunta al fatto che scene di vita quotidiana (chinarsi, sedersi, stendersi), non vengono ricondotti a casi specifici di falsi positivi.

MODULO DI RICONOSCIMENTO VOCALE


 

Il modulo di riconoscimento vocale si occupa di gestire tutti i tipi di comandi vocali per confermare un probabile “evento caduta” o per impartire al sistema dei compiti specifici e legati alla domotica classica (accensione luci, apertura porte, regolazione impianto di riscaldamento, chiusura tende, ecc).

L’hardware utilizzato per il sistema di riconoscimento vocale è costituito da due tipologie di microfoni: il microfono Samson UB1 e il radiomicrofono SHURE PG14E/PG185.

mic

Il Samson UB1 è un microfono ambientale omnidirezionale con connettività USB. Dato che l’UB1 è un dispositivo compatibile con le specifiche USB, è compatibile sia con Mac OS (e sistemi Unix like) che con Sistemi Operativi Windows. A causa del suo design, questo microfono può essere collocato in maniera discreta in qualunque ambiente (tavolo, palco, a muro).

Esso è stato utilizzato in un ambiente domestico dotato di automatismi domotici per un utenza generica e per tutti quei soggetti che hanno problemi motori o legati alla vista.

Il microfono ambientale Samson UB1Lo SHURE PG14E/PG185 è un radiomicrofono indossabile composto da trasmettitore, un microfono e un ricevitore. Questo microfono, grazie alle sue elevate caratteristiche tecniche e al suo posizionamento vicino alla bocca dell’utente, è stato utilizzato per quei soggetti affetti da dislessia o un timbro di voce particolare o molto basso.

mic1

Il sistema di riconoscimento vocale legato all’evento caduta, fornisce uno strumento di verifica che si aggiunge al modulo caduta, rendendo più robusto e affidabile quest’ultimo. Esso ha i seguenti compiti:

  • Resta in attesa di eventuali messaggi inviati dal modulo di rilevamento caduta;
  • Ricevuto l’eventuale messaggio di rilevazione caduta, riproduce un messaggio vocale che stimola una risposta da parte dell’utente:

o   In caso l’utente richieda aiuto, il sistema provvederà a contattare chi di dovere;

o   In caso l’utente non risponda, il sistema provvederà a contattare chi di dovere;

o   In caso l’utente non abbia bisogno d’aiuto il sistema ritorna nello stato d’attesa.

Il secondo ambito di utilizzo del sistema di riconoscimento vocale è attinente ai servizi domotici. Esso deve focalizzarsi sul riconoscimento di comandi impartiti da un utente, per cui il sistema non deve analizzare il parlato naturale, bensì un certo numero di comandi. Caratteristica fondamentale nella realizzazione di questo tipo di interazione uomo-macchina è la precisione con la quale il sistema deve operare: è opportuno cioè che la presenza di comandi riconosciuti erroneamente sia praticamente nulla (non è accettabile che la luce si spenga mentre si sta discutendo con il/la proprio/a marito/moglie). In seguito a questa necessità, risulta particolarmente importante gestire le cosiddette out-of-grammar words. Contemporaneamente, la soluzione implementata prevede l’associazione 1:1 di precisi comandi vocali ad azioni relative (es. accendere/spegnere la luce). Inoltre il sistema è speaker-independent: il riconoscimento è indipendente da colui che parla, quindi un sistema che è pronto per l’uso sin da subito.

Inoltre il suddetto lavoro scientifico è stato sottoposto e accettato per la pubblicazione sui relativi atti del convegno, 2014 IEEE International Symposium on INnovations in Intelligent SysTems and Applications (www.inista.org).

BIBLIOGRAFIA

  1. Vitoantonio Bevilacqua, Alessio Volpe, Nicola Nuzzolese, Fabio Stroppa, Marco Suma, Dario D’Ambruoso, Donato Barone, Michele Pantaleo, Claudio Loconsole: “Fall Detection in indoor environment with Kinect sensor”, IEEE INISTA 2014, (June 2014). [DOI]

Sito web  del Partenariato Met-AAL

Visita il nostro canale

Canale YouTube - Progetto Met-AAL