S&T travail sur un système analytique du Big Data pour la gestion des catastrophes

Les chercheurs de l’université des sciences et technologies au Missouri travail main dans la main avec leurs homonymes japonais d’Osaka sur un projet de recherche dans lequel se sont joint « l’U.S. National Science Foundation » et  « Japan Science and technology Agency ». Cette recherche à pour but de transformer et d’améliorer le système de gestion des catastrophes pour les individus et la société grâce au Big Data et les données analytiques.

Une coopération gagnante

Le docteur Sanjay Madria, (professeur et président associé pour la recherche dans les sciences informatiques à l’université) et les chercheurs japonais ont reçus une subvention pour 3 ans afin de développer de nouvelles méthodes de compression, d’indexation et de requêtes de données dans un « Cloud récepteur ». Les deux soumissions de subvention ont été évalué et financé séparément à hauteur de 300,000 dollars chacune.

Les deux agences récompensées doivent à présent relever deux défis majeur pour la gestion des catastrophes : capturer et traiter les données liés aux catastrophes, et améliorer la résilience et la réactivité des nouveaux systèmes informatiques et des réseaux faces aux catastrophes afin de faciliter l’analyses des données en temps réel après les séquelles.

Un travail de fond

En tant qu’investigateur principal du projet, Madria dirige son équipe « sur la conception de nouvelles méthodes pour une gestion efficace du Big Data impliquant alors l’indexation, la compression, la requête et l’analyse des données du capteur, » a-t-il déclaré. Ceci inclus « les capteurs humain » tels que l‘environnement, le sentiments des personnes pour mieux transmettre les informations utiles en situations de catastrophe.

S&T seisme

La solution des telephones mobiles comme vecteur d’information

Madria révèle que les résultats des travaux de son équipe bénéficieront à la recherche de techniques de gestion en cas de désastre dans lequel le temps de réponse est crucial.
C’est pourquoi il est essentiel que les personnes et les équipes d’intervention aient la capacité d’analyser un amas de donnée généré en plein cœur de l’action et après son exécution. Une rapide analyse peut aider à créer des avertissements sur mesure pour les collectivités, en particulier avec l’omniprésence des téléphones portables ; leur applications et de plateformes de médias sociaux qui faciliteront le transfert de l’information à tous.

La dépendance de ces systèmes mobile va requérir une résistance et une réactivité de premier ordres lors d’événement climatique (tornade, ouragan, séisme etc.) ou de fuites chimiques afin d’assurer le traitement des données en temps réel sans problème pendant ces catastrophes.

Pour faire simple, la clé dans la gestion du Big Data doit répondre à la question de savoir à quelle vitesse et avec quelle précision les données peuvent-être traitées et analysées.

Source