Historique

Aller à : navigation, rechercher

Depuis début 2016, l'axe Calcul scientifique et masses de données (CSMD) évolue et se sépare en 2 axes transverses :

  • Calcul Scientifique (CS)
  • Masse de données, images et télédétection (MDIT)

L'axe Environnement et Développement Durable (EDD) disparait.

Cette rubrique regroupe les réunions, formations, présentations, cours et séminaires organisés dans le cadre de l'axe CSMD et de l'axe (EDD).


AXES CSMD

2015

Retour d'expérience sur la différentiation automatique de codes
Dans le cadre de l'axe transverse "Calcul Scientifique", les chercheurs ayant assisté au cours sur la différentiation automatique de codes exposeront leurs travaux Jeudi 11 Juin de 9h à 12h. Au programme analyses de sensibilité, identification optimale, résolution de problèmes non-linéaires dans des domaines tels que l'informatique graphique, la mécanique des fluides, la robotique, ou bien encore l'optique.

Le programme complet et le lieu de la réunion ont été communiqués fin mai 2015 par courriel.

Cours sur la différentiation automatique de codes
Dans le cadre de l'axe transverse "Calcul Scientifique", Isabelle Charpentier propose un cours sur la différentiation automatique de codes Jeudi 12 mars de 9h à 12h, et Jeudi 26 mars de 9h à 12h à Télécom Physique Strasbourg.

Résumé : Nombre de domaines de recherche ont bénéficié de la croissance en puissance et en disponibilité des moyens de calcul dans leur mise en oeuvre de modélisations de plus en plus complexes permettant d'approcher la réalité des phénomènes physiques. Les codes de simulation résultants impliquent potentiellement un grand nombre de variables d'entrée (paramètres de modélisation, conditions initiales, conditions aux limites), et produisent des variables de sorties (résultats) généralement de grande taille. L'usage du mot « variable » doit être précisé car il s'entend à la fois au sens de variable informatique (contenant) et comme valeur sujette à une variabilité (contenu). Parfois, des paramètres d'un modèle physique ne sont connus que de manière incertaine. D'autres fois, ces paramètres n'ont pas de sens physique dans une modélisation du réel qui demeure trop grossière. On distingue alors incertitudes de nature aléatoire (intrinsèque, irréductible) et incertitudes de nature épistémique (réductible par ajout de connaissance).

Séminaire de Lucas Nussbaum
Dans le cadre de l'axe transverse "Calcul Scientifique", Lucas Nussbaum de l'Université de Lorraine (LORIA), fera une présentation de ses travaux de recherche le mardi 27 janvier à 14h00 dans l'amphithéâtre A301 à Télécom Physique Strasbourg.

Titre : Vers la recherche reproductible en informatique

Résumé : L'aptitude à reproduire les expériences et les résultats est une condition nécessaire à une démarche scientifique solide. Les communautés de physique ou de bio-informatique qui utilisent intensivement l’informatique pour des simulations ou de la fouille de données ont initié un mouvement vers une démarche expérimentale de plus grande qualité, via la diffusion des processus expérimentaux et des codes utilisés. Ce mouvement s'étend maintenant à la recherche en informatique. Dans ce séminaire, je ferai un tour d'horizon des initiatives actuelles autour de la recherche reproductible, et des outils qui permettent déjà d'améliorer ses pratiques au quotidien. Je finirai par parler de quelques challenges à plus long terme.

2014

Journée Big Data - principaux défis
Cycle de Journées "Science des données - Données des sciences"
Dans le cadre de l'axe transverse "Masses de données", une deuxième journée sur les Principaux Défis aura lieu le 7 novembre 2014 dans l'amphithéâtre A301 du Pôle API à Illkirch.

Il s'agira :

  • de présenter le défi Big Data dans le cadre des Données des Sciences et les "réponses" institutionnelles mises en œuvre pour aider les scientifiques à répondre à ce défi
  • d'introduire deux problématiques communes à de nombreuses disciplines : la Sécurisation des données et leur Préservation
  • de présenter quelques cas d'application concrets dans deux domaines : les Sciences de l'Environnement et les Sciences du Vivant

Ce cycle est ouvert gratuitement à toute personne, scientifique ou non, concerné(e)s par ce défi, qu'il/elle soit membre ou non du laboratoire ICube.

2013

Journée Big Data - Introduction à l'exploitation de masses de données
Cycle de Journées "Science des données - Données des sciences"
Dans le cadre de l'axe transverse "Masses de données", une première journée sur les Introduction à l'exploitation de masses de données au sein d'ICube aura lieu le 18 octobre 2013 dans l'amphithéâtre A301 du Pôle API à Illkirch.

Ce cycle est ouvert gratuitement à toute personne, scientifique ou non, concerné(e)s par ce défi, qu'il/elle soit membre ou non du laboratoire ICube.

2012

Fusion de l'axe AMN3D avec l'axe CSSMD
En juin 2012, l'axe AMN3D et l'axe CSSMD ont fusionnés, en élargissant un peu les thématiques de CSSMD. L'idée serait par exemple d'y faire apparaître une notion de "modèles numériques 3D", dans laquelle pourrait s'inscrire ANM3D comme une des thématiques de recherche.

Acquisitions
A l'aide d'un soutien fort du futur laboratoire (de l'ordre de 50 000€) et des équipes concernées, des licences des principales plateformes de manipulations et calcul des éléments finis ont été acquises

2011

Présentation des équipes et/ou participants (problématiques et attentes liées à cet axe)
A titre d'exemple :

Équipe BFO :

  • Optimisation numérique :
  • Fouille de données :
    • classification automatique de grands volumes de données :
      • les données étant de plus en plus souvent de nature différentes et bien souvent distribuées sur différentes sites, il est indispensable de modifier les méthodes pour tenir compte de cet état de fait
      • la classification totalement non supervisée ayant montré ses limites, une intégration des connaissances du domaine dans le processus est elle-aussi indispensable
    • Principaux partenaires : LIVE (Laboratoire Image, Ville et Environnement - UdS) ; CNES (Centre national d'études spatiales)
    • Projets ANR prioritaires visés : Masses de Données, Cosinus.
    • .. to be continued ...

Équipe MécaFlu :

  • Simulation directe de phénomènes accompagnant la transition à la turbulence, transport de chaleur et de masse.
    • Le rôle de la simulation ne consiste plus à interpréter ou à faire la synthèse d'observations expérimentales. Il s'agit d'une méthode de recherche où la réalité virtuelle dépasse la réalité expérimentale. La mise en place de simulations numériques précises et l'avancement dans le domaine turbulent nécessite un développement algorithmique incessant.
    • Compétences algorithmiques utilisées ou recherchées: méthodes spectrales, éléments spectraux, algèbre linéaire de matrices creuses, algorithmique parallèle, maillages mobiles 3D, algorithmes du contrôle optimal (parallèles).
  • Compétences proposées: calcul en mécanique des fluides (aérodynamique, bio-médical, micro-fluidique, ...), un code propre, deux codes industriels, possibilité de mesure en soufflerie
  • ANR Oblic (chute de disques et ellipsoïdes)

Équipe Réseaux :

  • Réseaux & Protocoles
  • Réseaux de capteurs (Protocoles & Algorithmie)
    • Conception des couches protocolaires efficaces pour avoir un grand nombre d'éléments communicant les uns avec les autres
      • Défis scientifiques (e.g.) :
        • Interférences et collisions (i.e. deux capteurs ne peuvent pas envoyer des données simultanément)
        • Algorithmie distribuée auto-stable (le réseau doit fonctionner sans élément centralisant toutes les décisions)
        • Tolérances aux fautes / pannes / dynamique du réseau
      • Interactions possibles :
        • Un réseau de capteurs vaste pour récupérer une grande quantité d'informations puis la traiter (masse de données)
        • Même outils (algorithmie distribuée) que les grilles
    • Réseaux orientés données
      • Pousser dans les réseaux, au plus proche de l'information, le traitement des données
      • Co-optimiser les couches protocolaires aux couches de traitement de l'information (i.e. où placer l'agrégation et le processing de données en général)
      • Pouvoir adapter le réseau à des données détectées (récupération des données (protocoles) -> traitement -> reconfiguration du réseau (ayant des implications sur les protocoles / algorithmes))
    • Outils utilisés :
      • Algorithmie distribuée & théorie des graphes
      • Simulations à événements discrets
      • Analytique (complexité algorithmique, bornes supérieures et inférieures, preuves de convergence, etc)
      • Expérimentations (notamment plate-forme senslab de 256 capteurs hébergée à ICube sur le site d'Illkirch)

Équipe AVR

  • Traitement d'images en temps-réel
    • filtres 2-D et 3-D non-linéaires
    • utilisé pour la commande des robots par vision
    • différents niveaux de complexité: simple traitement d'image, calcul de la pose
    • asservissements visuels dans les environnements complexes (gestion des occultations),
    • vision dynamique : filtrage probabiliste pour le suivi visuel d'objets déformables (AVR et FDBT)
    • temps de calcul limité à 20 ms voire moins par la commande
    • utilisation de PC sous Linux temps-réel mais possibilité de parallélisation sur processeur parallèle
  • Optimisation sous contraintes inégalités matricielles
    • Inégalités matricielles affines (ou linéaires)
      • de type M0 + x1*M1 + ... + xn*Mn < 0 où les Mk sont des matrices symétriques connues et il faut trouver les scalaires xk. L'inégalité matricielle signifie que la matrices est définie négative
      • des solveurs disponibles (méthode du point intérieur) permettant de résoudre des problèmes de dimensions élevées
    • massivement utilisé en automatique pour la commande et l'observation des systèmes dynamiques
    • de nombreuses utilités potentielles dans d'autres domaines
    • charge de calcul importante dans le cas de problèmes de grande dimension

Réflexion sur les besoins du nouveau laboratoire
Fin 2011 : Réflexion sur les besoins concernant les méthodes éléments finis du futur laboratoire.

De nombreuses équipes du futur institut utilisent déjà des méthodes éléments finis pour résoudre des équations différentielles dans des domaines différents de la physique (mécanique des fluides, acoustique, thermique, électromagnétisme, déplacement de porteurs de charge). Ces simulations sont parfois multi-physiques (avec couplage entre équations de domaines différents de la physique) et nécessitent souvent du calcul parallèle.

Le débat, déjà amorcé par Sylvain Lecler, a été relancé au niveau de l’axe transverse « calcul scientifique, simulation et gestion de masses de données » en coopération avec la DI, et nous proposons d'étudier les différentes solution permettant, à coût raisonnable, à un maximum d’équipes pourraient à l’avenir avoir accès à des méthodes éléments finis répondant à leur besoin et tournant sur machines parallèles.

Pour cela, :

  • Plusieurs rencontres ont été organisées avec avec les principaux développeurs commerciaux (Ansys, Comsol, Abaqus) et une rencontre sur les logiciels libres (getfm, freefem, feel ++ (epfl), fluidity (Imperial college), nektar ++, lifeV, openflower, oofem, elmer, ...). A chaque fois, avec une présentation au pôle API sur l’aspect simulation multi-physique et une à l’IMFS sur la mécanique des fluides).
  • Une réunion commune de débriefing a eu lieu fin 2011 pour voir dans quelle mesure certains besoins sont convergeants et si certaines ressources ne peuvent pas être mieux partagées.

Résultat de l'appel à projet 2011 de la fédération ST2I-ICube
Projet AMOEBA (Vision 3-D, recalage multi spectral, apprentissage, analyse comportementale et éthologie), équipe AVR, BFO et MIV : 34 000 € Projet MODELI (Outil partagé de simulations multi-physiques par éléments-finis sur calculateur parallèle) : 46 000 €
Réunion du 11 février 2011
Demi-journée de travail sur "Quelles architectures pour quels calculs ?" ouverte à tous. Il s'agissait :

  • de présenter les principaux types d'architectures parallèles GPGPU, Cluster, Cloud, ... (Stéphane Genaud - thème Parallèlisme du LSIIT, Pierre Collet - thème Optimisation du LSIIT)
  • d'analyser une ou plusieurs applications et/ou plate-formes actuellement utilisées ou développées par les différentes équipes du futur institut en termes de temps de calcul, du volume des données manipulées, de la taille de la mémoire utilisée, etc.
  • de proposer la "meilleure" architecture pour chacune d'elles

2010

Présentations lors des réunions - TRAVAIL SUR L'AXE

Réunion du 7 Septembre 2010
Suite de la réunion du 7 juillet. Deuxième partie de la présentation des différentes thématiques des laboratoires en rapport avec ce thème

  • LSIIT
    • Récupération distribuée de l'information à travers un réseau de capteurs-actionneurs radio : Fabrice Theoleyre , Equipe Réseaux et Protocole
    • Optimisation des performances des applications par parallélisation à différentes tailles de grain. :Stéphane Genaud - Julien Gossa, ICPS
    • Fouille de données : Pierre Gançarski - Nicolas Lachiche, FDBT
    • Calcul pour l'identification et la commande de systèmes dynamiques : Edouard Laroche, AVR
    • Utilisation de la plateforme EASEA pour l'optimisation de commande prédictive : Pierre Collet, FDB
    • Problèmes calculatoires en traitement d’images : Christian Heinrich, MIV
    • Asservissements et suivi visuels en temps réel sur des objets déformables, Christophe Doignon, AVR

2) Discussion sur l'avenir de cet axe (orientation, nom, fonctionnement, ...). Les discussions ont surtout porté sur la fanalité de cet axe, sur sa pertinenece et sur les thèmes/opérations/axe/... qui pourraient nous fédérer.

Par un manque de temps cette discussion n'a pû complétement aboutir. Il a été décidé de former un "bureau" chargé d'une part de synthetiser cette discussion et proposer ces éléments fédérateurs (et mettre à jour la présentation de l'axe dans ces pages WEB) et d'autre de réfléchir à un mode de fonctionnement.

Ce bureau est composé de :
- Pierre Gançarski (LSIIT - "Informatique")
- Jan Duzek ( (IMFS)
- Philippe Gérard (LSP)
- Christian Heinrich (LSIIT "non-informaticien")

Réunion du 7 Juillet 2010

Afin de (re)lancer l'axe transversal sur la Modélisation, Simulation et les Masses de Données une rencontre inter-laboratoire a eu lieu le 7 Juillet (mercredi) de 9h à 12h, salle de réunion de l'IMFS (RDC du 2, rue Boussingault.)

Première partie de la présentation des différentes thématiques des laboratoires en rapport avec ce thème

  • IMFS :
    • Mécanique des solides et matériaux : Daniel Georges
    • Bio-mécanique : Caroline Deck
    • Hydraulique urbaine : José Vazquez
    • Mécanique des fluides : Jan Dusek
  • Direction Informatique
    • L'offre de services de la D.I. sur le calcul scientifique : Romaric David, Responsable du département Expertise pour la Recherche UDS
  • Laboratoire des Systèmes Photoniques
    • Outils de simulation pour l'optique et la micro-optique, utilisation et développement : Philippe GERARD ,

2009

Réunion du 17 septembre 2009

Présents : E. Laroche (LSIIT - EAVR) ; C. Wemmert (LSIIT - FDBT) ; P. Collet (LSIIT - FDBT) ; N. Lachiche (LSIIT - FDBT) ; P. Gançarski (LSIIT - FDBT) ; M. Tajine (LSIIT - MIV) ; Y. Takakura (LSIIT - TRIO) ; C Heinrich (LSIIT - MIV) ; D. George (IMFS) ; J. Gossa (LSIIT - ICPS) ; S. Genaud (LSIIT - ICPS) ; B. Sauvage (LSIIT - IGG) ; R. David (UDS - Dir. Info.) ; J. Dusek (IMFS) ; G. Bouchet (IMFS) et J.-M. Dischler (LSIIT - IGG)

Après une présentation de chacun et de ses princiaples activités de recherche pouvant être liées avec cet axe, une discussion sur le pourquoi et le comment de cet axe s'est engagée.

En résumé (fait par Pierre G. et qui n'engage que lui...), il apparait que cet axe qui veut se voir comme un "ciment" entre des équipes des labos, assurant une visibilité extérieure, doit permettre une animation scientifique  :

  • sur la modélisation et la simulation elles-mêmes par l'apport et l'intégration de méthodes et d'outils d'équipes différentes
  • sur le mélange et l'utilisation conjointe de modèles et/ou de bases de connaissances issus d'équipes différentes
  • sur l'étude de modèles de calcul communs

Il doit aussi permettre (mais surtout pas uniquement) une parallélisation des algorithmes et méthodes grâce à une étude au plus haute niveau d'abstraction possible pour une utilisation plus efficace des moyens de calcul mis à la dispositions des chercheurs par le centre de compétences en calcul parallèle et visualisation (CECPV) de l'UDS.

Après l'étude des différents modes de fonctionnement (séminaires, réunions café régulières, etc.), il a été proposé et retenu de mettre en place un site Wiki (le présent site!) afin d'une part de présenter les activités de l'axe et ses participants et d'autre part de décrire les thèmes de recherche, les compétences, les priorités en recherche, les principaux projets liés à cet axe des équipes et/ou participants des différents laboratoires.

AXES EDD

2013

Objectifs

Créer des liens transversaux inter-équipes sur les thématiques de l'Environnement et du Développement Durable. Une description complète des objectifs de l'axe peut être téléchargée derrière ce lien. Le tableau ci-dessous dresse un état des lieux des collaborations possibles (Cliquer pour agrandir).

Fichier:Tableau de bord EDD 2012.png
Tableau de bord EDD (cliquer 3 fois de suite pour zoomer)


Prochaines réunions

La prochaine réunion EDD aura lieu le jeudi 30 mai 2013 de 14 h à 16 h 15 dans l’amphi A207 à Illkirch.

Le programme est le suivant :

  • 14 h-14 h45 : Yves Handrich, Chercheur CNRS au Département Ecologie, Physiologie et Ethologie de l’IPHC.
    • Titre : « Le bio-logging, une nouvelle approche pour l’étude de l’animal dans son milieu naturel »
    • Yves étudie les dépenses énergétiques des animaux en les équipant d’une station inertielle et d’un GPS.
  • 14 h 45-15 h30 : Pierre Collet, Professeur à l’UdS, laboratoire ICube, équipe BFO
    • Titre : « Exploitation du parallélisme massif pour de l’optimisation stochastique émergente »
    • Une présentation sur les dernières avancées en matière d’optimisation stochastique accélérée par GPGPU.
  • 15 h 30-16 h15 : Bertrand Rose, Maître de conférences à l’UdS, laboratoire ICube.
    • Titre : « Lean and Green, ou comment lier et déployer performance industrielle et performance environnementale en entreprise ».
    • Bertrand nous parlera aussi du projet Interreg et du laboratoire ZEE de Fribourg dans lequel il a récemment effectué un séjour.