Candidature à la préparation d'une thèse

herbshopeulikitInternet και Εφαρμογές Web

11 Φεβ 2013 (πριν από 4 χρόνια και 7 μήνες)

726 εμφανίσεις

SA
au
ca
pit
al
de
10
41
2
23
9
18
8 €
-

38
0
12
9
86
6
R
CS
Pa
ris




Orange Labs

38
-
40, rue du Général
-
Leclerc

92794 Issy Moulineaux Cedex 9

Téléphone : 01 45 29 44 44





Sujets de thèses 2010/2013




Méthodes d’interactions tangibles avec des contenus géolocalisés dans un contexte de mobilité.



Développement d’une méth
ode de diagnostic technique des dégradations de qualité vocale perçue des
communications téléphoniques à partir d’une analyse du signal de parole



PHD title: Ensuring Quality of Service for Content delivery in Information

Centric Networks




Sujet de la thèse (Titre): Analyse automatique, classification et traitement des signaux audio



Sujet de la thèse : Connectivité contextuelle dans les architectures mu
lti
-
accès du futur


Sujet de la thèse (Titre): Mobilité dynamique dans les architectures de réseau du futur


Sujet de la thèse (Titre): Contextualisation des services de communication in
terpersonnelle en entreprise

Sujet de la thèse (Titre): Codes correcteurs d’effacements et accès opportuniste au spectre


Development of a technical diagnostic method for voice qualit
y impairments perceived in telephone
communications, based on an analysis of speech signal.


Codage multi
-
vues plus profondeur (MVD) avancé pour la TV
-
3D et le FTV.


E
xploitation de données massives pour le développement de services de communication sensibles au
contexte.


Exploiting massive data to develop context
-
aware communication services


Sujet de la thèse (Titre): Etude et implémentation d'une architecture de décodage générique et flexible pour
codes correcteurs d’erreurs avancés.


PHD title: Adaptive replica management in federated cloud storag
e systems



PHD title: End
-
to
-
end Security Architecture and Self
-
Protection Mechanisms for Cloud


Sujet de la thèse : Architecture de sécurité globale et mécanismes d’auto
-
protection po
ur



Sujet de la thèse: Résilience des services


détection, réaction et reprise

Advanced inter
-
cell interference mitigation for 4G networks










Fiche descriptive de la thèse


Encadrant Orange Labs: Grégoire Lefebvre



Ad
resse électronique de l'encadrant : gregoire.lefebvre@orange
-
ftgroup.com


Site: Meylan


Sujet de la thèse (
Titre
):


Méthodes d’interactions tangibles avec des contenus géolocalisés dans un contexte de mobilité.


Contexte global de l'étude et état de l'art


L'objectif de cette thèse est de permettre un accès simple et naturel à des données géolocalisées, tant sur le
plan de la présentation et de la manipulation de l’information (acquisition, restitution, interaction), que sur le
plan de l’adaptabilité (perso
nnalisation, profilage par analyse des usages, adaptation dynamique au
contexte).


De nos jours, l’utilisation d’informations géolocalisées est de plus en plus courante dans les applications
grand public : navigation GPS, géomarketing, réseaux sociaux, réa
lité augmentée,
etc
. Deux aspects, en
particulier, sont primordiaux pour les utilisateurs : un accès simple à l'information géographique pour
s’orienter (points cardinaux, directions à suivre, plan symbolique, image satellite,
etc
.) et un accès naturel
aux

contenus géolocalisés pour s'informer (points d’intérêt statiques : gares, restaurants, hôtels,
etc
., ou
informations dynamiques : trafic routier, publicité, niveaux de pollution, information communautaire,
etc
.).


Ces accès simples et naturels peuvent ê
tre fournis par des interactions tangibles contextuelles (
NUI :
Natural User Interface
). L'utilisateur en mobilité (ex: à pied, en bus, ou en voiture) peut rechercher des
informations à l'aide d'une gestuelle 2D/3D (ex: geste symbolique sur une cartographi
e tactile, balayage
régulier de son environnement à la recherche d'une cible) et la réponse à son interrogation peut être visuelle
(ex: réalité augmenté), sonore (ex: son spatialisé) et/ou tactile (ex: retour de force, vibration tactile).


La clef de la ré
ussite pour un service géolocalisé est sa capacité à s’adapter à l'usage des utilisateurs en
mobilité. Cet usage peut être de plusieurs ordres :



Naviguer librement (ex: se repérer dans l'espace, connaître son environnement),



Chercher sa destination (ex: m
anipuler des contenus cartographiques et se laisser guider),



Etre interpelé (ex: visualiser, entendre et/ou ressentir par vibration une information géolocalisée
lorsque l'utilisateur s'approche de la source).


Or, les usages diffèrent selon les besoins des

utilisateurs, leurs habitudes et leurs mobilités.

La présentation des données doit donc s’adapter, dans un premier temps, au contexte matériel [1, 2]. Cette
adaptation de l'ensemble des informations disponibles d’un système d’information géographique en u
n sous
-
ensemble pertinent nécessite un processus formalisé de sélection des informations. De la même manière,
l’interaction avec ces informations (manipulation, consultation, modification) dépend également du contexte
(ex: selon la localisation de l'indivi
du et le niveau de détails souhaité d’une représentation, seules certaines
actions doivent pouvoir être permises.)


Ce processus de présentation/interaction peut être affiné en fonction des classes de comportement de
l'utilisateur. La classification des ut
ilisateurs (clustering et/ou classification supervisée [3]) sera effectuée à
partir de l’analyse de son comportement (extraction de motifs comportementaux à partir de traces de
l'utilisateur en activité [4]). Elle permet d'affiner les informations présenté
es ainsi que les interactions
possibles en vue d'une meilleure adéquation entre les attentes de l'utilisateur et les informations disponibles.
Cette classification devra s’appuyer ainsi sur les interactions tangibles entre l’utilisateur et son matériel.


La prise en compte de ses usages et du contexte permet ainsi d’enrichir son interaction avec des contenus
géolocalisés.


[1] Vers une plate
-
forme de génération de SIG mobiles adaptés au contexte d'utilisation, C.LOPEZ
-
VELASCO,
J.GENSEL, M.VILLANOVA
-
OLIVER,

H.MARTIN, Revue Internationale de Géomatique, VOL 19/2
-

2009
-

pp.191
-
210.




[2] Cartographie multi
-
résolution dans un contexte mobile, J.FOLLIN, A.BOUJU, Revue Internationale de Géomatique,
VOL 17/2
-

2007


pp.227
-
245.

[3] Data Mining: Concepts and Tech
niques, 2nd ed., Han J. et Kamber M., Morgan Kaufmann, 2006.

[4] Une nouvelle heuristique pour l'alignement de motifs 2D par programmation dynamique, Chanoni E., Lecroq T.,
Pauchet A., JFPDA, France, pp.83
-
92, 2008.


Mots clés :

Interactions tangibles, Sy
stème d'information géographique, Modélisation des interactions
humaines


Objectifs de la thèse/ Résultats attendus/ Défis scientifiques/techniques à relever.


Les objectifs de la thèse sont d’offrir une modélisation du contexte de l’utilisateur et d’adapt
er la présentation
de l'information et ses modes d’interaction en fonction de ses usages.


Les défis scientifiques sont donc

: l’interaction tangible avec des contenus géolocalisés, la modélisation des
interactions humaines dans le but de proposer une pers
onnalisation et une meilleure accessibilité à des
informations géolocalisées.


Approche
méthodologique

proposée par le responsable technique


Les compétences nécessaires sont doubles

: le
pattern recognition

(gestuelle captée, modélisation des
interactions

homme
-
machine) et le
data mining

(extraction de régularités dans les usages de l'utilisateur,
reconnaissance de motifs comportementaux, apprentissage).


Planning Global du déroulement de la thèse


Planning : T0 + 3 ans



Appropriation du sujet et état de l
'art (T0 + 12 mois)



Propositions méthodologiques (T0 + 18 mois)



Démonstrateurs technologiques (T0 + 24 mois)



Formalisation, expérimentation, validation et publications (T0 + 30 mois)



Rédaction du document de thèse et soutenance (T0 + 36 mois)


Partenariat
académique


Laboratoire LITIS (INSA Rouen) : Alexandre Pauchet, Michel Mainguenaud


Profil du candidat


Ingénieur / Master Recherche dans l’une des spécialités suivantes : IHM, mathématiques appliquées,
traitement du signal, intelligence artificielle.

Un
e bonne maîtrise de l’anglais, oral et écrit, est également souhaitée.




Fiche descriptive de la thèse


Encadrant Orange Labs:

Vincent Barriac

Adresse électronique de l'encadrant :

Vincent.barriac@orange
-
ftgroup.com

Site:

Lannion

Sujet de la thèse (
Titre
):

Développement d’une méthode de diagnostic technique des dégradations de qualité vocale
perçue des communications téléphoniques à partir d’une analyse du signal de parole


Contexte global de l'étude et état de l'art


L’évaluation de la qualité perçue des co
mmunications vocales fait appel à deux familles de techniques assez
distinctes

:

-

Les techniques d’analyse du signal, depuis des mesures simples sur le niveau de signal ou son
spectre, jusqu’à des modèles dits psycho
-
acoustiques, c'est
-
à
-
dire combinant anal
yse du signal et
modélisation de la perception et du jugement. Le plus connu de ces modèles est PESQ (UIT
-
T
P.862).

-

Les techniques d’interprétation des indicateurs techniques non liés au signal lui
-
même, mais plutôt à
la façon dont il a été traité et trans
porté par le réseau. On parle alors de méthodes paramétriques.

Dans ces deux familles on a abouti à des méthodes particulièrement précises, permettant désormais de
prédire ou d’estimer la qualité perçue de façon pertinente.

Plus récemment, on a vu apparaît
re des approches hybrides, combinant mesures sur le signal et indications
paramétriques, notamment dans le domaine du transport sur IP. La complémentarité des deux approches
doit permettre de combiner les avantages des deux familles

: la précision des mesu
res sur le signal, et la
capacité des méthodes paramétriques à être utilisées sans contrainte de CPU ou de décodage du signal.
Les méthodes paramétriques apportent de plus des éléments de compréhension de défauts techniques (par
exemple, une mesure de pert
es de paquets pour comprendre des coupures dans le signal).

Toutes ces méthodes ont cependant un défaut

: elles ne permettent pas de faire le lien entre une
dégradation perçue et sa cause. Quelques études ont commencé à aborder ce lien, mais elles en sont
encore à un stade peu avancé. Or, d’un point de vue opérationnel, c’est à cela que doivent avant tout servir
des méthodes et outils de mesure de qualité

: trouver l’origine des défauts constatés, voire même proposer
des actions correctives.


Objectifs de l
a thèse/ Résultats attendus/ Défis scientifiques/techniques à relever.

L’idée à la base du lancement de cette étude est qu’il est possible et réaliste d’envisager de doter les
équipes opérationnelles en charge de superviser les réseaux et services de téléc
ommunications d’outils de
diagnostic puissants capables d’expertiser les défauts de qualité perçue sur des communications
téléphoniques et d’en déduire les causes techniques sous
-
jacentes (et a fortiori les solutions à apporter).

L’objectif est donc la réa
lisation d’un tel outil, combinant analyse du signal audio et interprétation de données
paramétriques.

Cette étude sera restreinte aux architectures des réseaux VoIP de France Télécom / Orange, basées sur
IMS (protocole SIP), et aux seuls fournisseurs de F
rance Télécom / Orange de ces architectures. .
L’extrapolation de ces travaux vers une généralisation des règles de diagnostic (qui seront fortement
dépendantes d'architectures particulières) ou la normalisation ne nous semble donc pas aisément
envisageabl
e (et pas non plus forcément souhaitable).

Ce travail va être réalisé en étroite collaboration avec (première partie) les chercheurs en charge du
développement d’algorithmes et modèles de traitement du signal vocal (mesure de qualité vocale, codage
de paro
le, amélioration du signal), mais aussi (seconde partie) avec les équipes opérationnelles connaissant
les équipements du réseau et en mesure de fournir des données réelles d’incidents pour élaborer des règles
de diagnostic.





Approche
méthodologique

proposé
e par le responsable technique

(Préciser les compétences recherchées nécessaires à l'approche)

L’approche que nous privilégions comporte deux étapes

:

-

la détection dans le signal de parole de dégradations perceptibles et gênantes, parmi des catégories
géné
rales :

o

coupures dans le signal, pertes d’information

o

distorsion, déformation du signal

o

présence de bruit de fond

o

modification du niveau de signal

o

défauts liés à des difficultés d’interaction (écho, notamment)

-

la détermination de sous
-
catégories plus préc
ises (par exemple pour le bruit

: distinction du type et
de l’amplitude du bruit), liées à des causes techniques prévisibles identifiées.

La première étape est purement axée sur du traitement de signal. Il faut mentionner que des travaux récents
(thèses de

M. Wältermann à DT, de N. Côté et d’A. Leman à FT) ont bien débroussaillé le terrain (dans le
contexte d’écoute, pas en contexte conversationnel, qui reste encore à étudier), puisque les principales
dimensions sont connues et que des algorithmes de détect
ion (perfectibles) ont été développés.

-

La seconde étape, qui constitue le sujet de cette étude, va combiner ces algorithmes (ou plutôt des
raffinements de ces algorithmes) et l’analyse d’informations de type paramétrique IP (taux de pertes
de paquets et le
ur répartition dans le temps, événements sur équipement du réseau et accessibles
via des compteurs ou des CDR, résultats de mesures effectués par les terminaux et renvoyés par
eux sur le réseau, etc.).


Planning Global du déroulement de la thèse (
grandes l
ignes
)

La thèse proposée se décompose donc en deux sous
-
parties bien distinctes

:

-

L’amélioration des algorithmes existants, pour leur permettre de détecter des sous
-
catégories ainsi
que d’être capables de «

reconnaître

» la signature de certains traitemen
ts (notamment

: débruitage,
codage et transcodage). Il s’agit de la partie la plus ardue et longue de cette étude.

-

L’établissement de règles de diagnostic permettant de relier ces sous
-
catégories à des défauts
réels, grâce à une combinaison de mesures sur
le signal et d’informations paramétriques. Un
système expert basé sur des réseaux de neurones est envisagé, mais d’autres solutions peuvent
être imaginées.


Contributions secondaires si prévues (
participation à des projets collaboratifs
)


Aucune pour l’ins
tant




Campaign 20
10

Description of the PHD


Orange Labs Supervisor:

Bertrand Mathieu


Supervisor email:

bertrand2.mathieu@orange
-
ftgroup.com


Location: Lannion (22)
-

France



PHD title: Ensuring Quality of Service for Content delivery in
Information
Centric Networks



Global context and state of the art


The Internet was designed with much less ambitious objectives than what it is now able to provide, with in
mind a simple client
-
server approach. Nowadays, with its success, many features have been add
ed to offer
QoS, mobility, security, NAT traversal, load and data distribution, web pages ranking, etc.
, making it very
complex. The first idea of Internet was to connect hosts (client and server) to get contents. The quality of the
communication is assur
ed by minimum cost routing and a certain level of over
-
provisioning to keep low
queueing delay and overload.

However, it is now widely admitted that the current Internet has many drawbacks or limitations and that
network
s should move from a host centric ap
proach towards a content centric approach. A recent literature
on content
-
based networking, called Content Centric Networks (CCN) or also Information Centric Networks
(ICN) rethinks globally nowadays networking with the ambition to answer to a large numbe
r of unsolved
networking problems. Content centric networking focuses on named data that is recognizable by nodes
directly from names written into packet headers. In ICN, the naming, addressing and routing of data plays a
more important role since the way
how contents are identified have a big impact of its distribution; the routing
is based on the named data and no longer on the IP address of the machine, hosting the contents. Several
research teams investigate this field and propose several solutions base
d on publish/subscribe mechanisms
and/or DHT
-
extended systems (CCN, PSIRP, NetInf, DONA……) but they are still in their early stage and do
not address all features the future Internet should provide. One of them is a mechanism to ensure quality of
service i
n the content delivery in such ICN, while the context may be different from one user to another one.
Indeed, none of the solutions clearly address this issue. Some just argue that the quality will be better
because the content will be retrieved from closer

sources; others say that ICN will improve QoS but without
detailing why and how. The study proposed in this thesis is to find a satisfactory solution to ensure quality of
service in ICN, depending on the context: This might be based in defining a new iden
tification scheme that
could allow to embed QoS (and possibly context) information in content Identifiers and allow its routing in the
ICN. It could also be integrated with routing/queuing/caching mechanisms that enable the delivery with
respect to the req
uired QoS. Dynamic routing solutions based on the naming of the content as well as u
sing
network topology or other criteria may also be used to help in the distribution of information with the required
Quality of Service.
. The PhD student will have to desi
gn this new system and validate it (via simulation or
prototype & tests).



PHD objectives / Expected results / Scientific challenges / Key Issues


The overall obj
ective of the thesis is to design and validate a solution, relying on a new naming scheme
ass
ociated with its addressing and routing functions that could allow to ensure quality of service in ICN
networks, depending on the current context.

The approach should be validated by simulation and eventually by a prototype, which will be a proof
-
of
-
conce
pt of the solution and tested in real
-
life configurations.

The technical challenge is about guarantying QoS in such ICN, where contents are replicated, distributed
and may be accessed from many sources (possibly from different access networks, having diffe
rent
capabilities) via many different paths, passing through ICN routers…



Methodological approach proposed by the supervisor





The methodol
ogy will be quite classical. The PhD student will make an exhaustive bibliography related to
ICN and QoS existing w
orks. Then after identifying lacks, limitations or possible improvements, the student
will design his solutions and evaluate it.

The PhD student will be localised in Lannion, within the team that will supervise him and that works on this
topic. Frequent di
scussions and exchanges will allow presenting the work, to brainstorm about ideas and to
make progress in the work. Others teams in Orange Labs work on similar topics and meetings will be set up
between teams to exchange about proposals, ideas…. Additional

seminars could also be organised where
the student could present his work to Orange people or even external research scientists.

Frequent meetings will also be held with the academic supervisor to monitor the progress of the work, to
drive the work and ev
entually propose new research directions.

Finally, the PhD student will have to publish his works in international well
-
known conferences, in journals,
books, etc.


The PhD Student should have a good knowledge of IP protocols
(IP, TCP, UDP, HTTP, Mobile IP
, QoS…)
and about Internet more generally speaking.

Having a good knowledge of DHT
-
based systems would be a plus.

The PhD Student should be fluent in English (reading, writing, speaking). A native
-
English spoken candidate
would be preferred.



Global sched
ule


During the first six months, the PhD student will make a st
ate
-
of
-
the
-
art of the topic, based on an existing
survey done by the Orange team and including also existing quality of service mechanisms. After this first
phase, the PhD Student should have
identified research items (limitations of existing solutions, improvement
to existing solutions, new concept/mechanism to design and integrate, new ICN system, etc.).

The second phase will be about the research work, defining one (or several) new solution(
s) in order to
guarantee quality of service in ICN networks. The second phase will last between 1 year and 2 years

The third phase will be about the evaluation of the proposed approach. Depending on the solution, the
evaluation could be simulations of the

system (extending simulator tools and making tests) and could be an
implementation of the system (proof
-
of
-
concept) and tests to prove the efficiency of the solution. The
evaluation phase will be about 1 year.

The second and third phase could be made in
the same time (e.g., the student designs a solution,
implements and tests it, refine, adapt the solution, re
-
tests it, etc.).

Finally, the PhD student will write the thesis document.



Additional contributions


Contribution to c
ollaborative (national or Eu
ropean) projects



Some references


1.

B.

Ahlgren, M.

D'Ambrosio, M.

Marchisio, I.

Marsh, C.

Dannewitz, B.

Ohlman, K.

Pentikousis,
O.

Strandberg, R.

Rembarz, and V.

Vercellone, “Design considerations for a network of information,”
in Proc. of

ACM

CoNEXT

, 200
8.

2.

4WARD D
-
6.1, “First NetInf architecture description,”
http://www.4ward
-
project.eu/
.

3.

Carzaniga, M.

J. Rutherford, and A.

L. Wolf, “A routing scheme for content
-
based networking,” in

Proc. of IEEE INFOCOM
, 2004
.

4.

Future Content Networks Group, “Why do we need a content
-
centric future Internet?
Proposals
towards content
-
centric internet architectures,” Future Internet Assembly, Prague, Position Paper,
May 2009.

5.

V. Jacobson, “Introduction to content
-
centric network
ing
,” Invited plenary course, Future Internet
Summer School 2009
, June 2009.

6.

V. Jacobson, “A new way to look at networking,”
Google Tech Talk
, Aug. 2006.


http://video.google.com/videoplay?docid=
-
6972678839686672840

7.

V.

Jacobson, D.

Smetters, J.

D. Thornton
, M.

Plass, N.

Briggs, and R.

Braynard, “Networking named
content,” in

Proc. of ACM CoNEXT
, 2009.

8.

PARC, “Project CCNx,” http://www.ccnx.org/.

9.

T.

Koponen, M.

Chawla, B.
-
G. Chun, A.

Ermolinskiy, K.

H. Kim, S.

Shenker, and I.

Stoica, “A data
-
oriented (and bey
ond) network architecture,” in Proc. of

ACM

SIGCOMM '07
, 2007, pp. 181

192.




10.

S.

Paul, R.

Yates, D.

Raychaudhuri, and J.

Kurose, “The cache
-
and
-
forward network architecture for
efficient mobile content delivery services in the future internet,” in

Proceeding
s of the First ITU
-
T
Kaleidoscope Academic Conference on Innovations in NGN: Future Network and Services
, 2008.

11.


Publish
-
subscribe internet routing paradigm,” http://psirp.hiit.fi/.




Campagne 2010


Encadrant Orange Labs: Julien FAURE


Adresse électronique d
e l'encadrant : julien.faure@orange
-
ftgroup.com


Site: Lannion


Sujet de la thèse (
Titre
):
Analyse automatique, classification et traitement des
signaux audio



Contexte global de l'étude et état de l'art


Depuis quelques temps nous constatons une recru
descence de problèmes physiologiques (perte
d'auditions, stress, fatigue) liés en partie à la présence de chocs acoustiques dans les réseaux téléphonique.
Des premières études ont permis d'identifier les causes des ces troubles et ont démontré que les solu
tions
existantes ne sont pas parfaites. Le phénomène des chocs acoustiques est très peu connu en France et en
Europe, la plupart des études sur le sujet nous vient de l'Australie.


Cette thématique risque d'être de plus en plus présente dans les années à v
enir avec l'évolution et la
multiplication des systèmes de diffusion et de télécommunication (élargissement de la bande audio,
multiplication des opérateurs, convergence voix/audio).


Par ailleurs, l'évolution des techniques de compression audio (codage)
qui s'adaptent automatique au
contenu font de l'identification et de la classification des signaux (choc acoustique, bruit, parole, musique),
un élément clef de la maitrise de la qualité de communication.



Etat de l'art sur la définition et le phénomène
des chocs acoustiques :


-

ACIF G613.4
, in
Australian Communications Industry Forum
. 2004.

-

Starck, J., E. Toppila, and I. Pyykko,
Impulse noise and risk criteria.

Noise Health, 2003.
5
: p. 63
-
73.

-

Dillon, H.
Acoustic shock
-

An overview.

in
XXVI International

Audiology Congress
. 2002.
Melbourne

-

Patuzzi, R.
Acute Trauma in users of Telephone Headsets and Handsets
. in
Risking Acoustic
Shock Seminar
.
2001. Fremantle.

-

Westcott, M.,
Acoustic shock injury (ASI).

Acta Oto
-
Laryngologica, 2006.
126
: p. 54
-
48.

-

Laroche,
J.,
Traitement des Signaux Audio
-
Fréquences
. 1995, TELECOM Paris: Paris.

























Objectifs de la thèse/ Résultats attendus/ Défis scientifiques/techniques à relever.


Objectifs :

-

Améliorer les algorithmes de détection et de traitement de sons
dangereux ou désagréables pour
l'audition sans altérer les signaux de parole ou audio (son pures, chocs acoustiques, sons
transitoires, Larsen, bruit très forts, buzz). En effet, certains sons sont désagréables à des niveaux
bien en deçà des niveaux de par
ole ou de diffusion audio. Le défi technique à relever consiste à
réussir la détection et l'extraction automatique des composantes désagréables parmi des
composantes utiles de la parole ou de l'audio en utilisant d'autres critères que le simple niveau
éner
gétique.


-

Améliorer les algorithmes de détection classification des sons dans un contexte de service de
communication (Séparation parole/bruit de fond/musique/bruit gênant ou dangereux). Cette
classification est essentielle à la prise de décision soit sur
le type de codeur à utiliser
(parole/musique) soit sur le déclanchement ou non d'algorithmes de traitement du signal
(débruiteur, annuleur d'écho, automatisation du gain)


-

L'objectif sera aussi d'évaluer de l'impact du contexte d'utilisation (signaux audi
o ou parole, bande
audio variable, signaux codés ou non codés) sur le désagrément ainsi que sur les performances
de tels algorithme de décision.




Approche
méthodologique

proposée par le responsable technique

(Préciser les compétences recherchées nécessa
ires à l'approche)



1.

Evaluer la notion de désagrément via une analyse bibliographique et éventuellement des tests
subjectifs, (par exemple : à partir de combien de fréquences pures un son n'est plus désagréable ?,
à partir de quelles niveau selon un son es
t désagréable ? quels sont les composantes de la voix qui
sont désagréables). Ça peut être via une analyse multidimensionnelle.


2.

Proposer des algorithmes de détection et de classification de sons (parole, musique, bruit, choc).


3.

Dans le cas plus particul
ier de son désagréables ou dangereux, proposer de traitements adaptés
aux différents types de désagréments (prise en compte des effets courts et longs termes).



Compétences requises ou à acquérir : Traitement du signal, perception sonore, algorithmie, mod
élisation.




Planning Global du déroulement de la thèse (
grandes lignes
)


6 mois de bibliographie (Désagrément, modèles de décision, algorithmes de protection existants)

2 ans de développement (algorithmie, modélisation, tests, validation)

6 mois de réda
ction




Campagne 2010

Fiche descriptive de la thèse


Encadrant Orange Labs: Karine GUILLOUARD


Adresse électronique de l'encadrant :
karine.guillouard@orange
-
ftgroup.com


Site : Orange Labs Rennes


Sujet de la thèse :
Connectivité contextuelle dans les architectures multi
-
accès du futur



Contexte global de l'étude et état de l'art


L’étude se situe dans le cadre de propositions de nouvelles architectures de réseau plates multi
-
accès
basées sur la
convergence des infrastructures en tout IP.


Récemment, les instances de normalisation du Broadband Forum (BBF) et du 3GPP ont lancé un groupe de
collaboration sur l’interfonctionnement entre les accès fixes NGN (Next Generation Networks) et les accès
san
s fil du 3GPP

; le travail se focalise plus spécifiquement sur l’identification de services et d’utilisateurs, la
facturation, le contrôle et les politiques de QoS
[1]
. Concernant le support de la mobilité, le BBF n’a jusqu’à
prés
ent considéré que le besoin de nomadisme entre les différents accès. Au contraire, le 3GPP spécifie la
mobilité inter
-
accès avec continuité de services. Le groupe de collaboration devrait élaborer des scenarios
de mobilité communs en vue de définir des sol
utions de mobilité convergentes
[2]
. Cependant, les
perspectives semblent s’orienter encore quelques temps vers la coexistence de différentes architectures,
plus ou moins complexes selon les accès considérés, chacune basée sur des

protocoles spécifiques
(mobilité, QoS, transport). Elles conduisent à des problèmes de mise à l’échelle dus aux divers points
d’interconnexion, à une complexité de gestion de réseau, à une redondance fonctionnelle et à une difficulté
d’interfonctionnement

entre les accès dues à la diversité des protocoles mis en œuvre.


Le projet Celtic MEVICO
[6]
, lancé en 2010 et auquel Orange Labs contribue, adresse ces problèmes en se
focalisant sur les architectures mobiles du futur (i.e. po
st LTE)

; les principaux mots d’ordre sont d’améliorer
la mise à l’échelle, d’accroître le volume de trafic supporté, le nombre de cellules radio raccordées tout en
simplifiant l’architecture réseau, notamment par une mise à plat des architectures fonction
nelles et
organiques. Le projet devrait notamment s’intéresser à des mécanismes localisés à l’accès permettant de
décharger le réseau cœur mobile, tels que LIPA (Local IP Access from Base Station or Femtocells), SIPTO
(
Selected Internet IP Traffic Offload)
, IFOM (IP Flow Mobility and seamless WLAN offload), des mécanismes
de gestion dynamique adaptée au trafic (
dynamic switching of anchors, dynamic inclusion of new control
elements with minimal reconfiguration of the network).

Ces aspects doivent encore fa
ire l’objet d’études poussées avant de pouvoir être normalisés au 3GPP
[5]
.


L’étude de mise à plat des architectures multi
-
accès a également été initialisée à Orange Labs par le travail
de thèse sur le protocole Dynamic Mobility

Anchoring (DMA)
[4]
. Celui
-
ci doit se terminer en 2010. Il est plus
particulièrement focalisé sur la gestion du plan de données au plus près de l’accès. La gestion du plan de
contrôle dans le contexte multi
-
accès et multi
-
session
s reste à développer, notamment en considérant les
accès des réseaux fixes (xDSL, optique FTTx).


Objectifs de la thèse/ Résultats attendus/ Défis scientifiques/techniques à relever.


Dans ce contexte global, le travail de thèse proposé vise à homogénéiser

et faciliter l’interconnexion des
technologies d’accès fixes (xDSL, WiFi, FTTx) ou mobiles (3G, LTE) au plus près de l’accès

en ne mettant
en œuvre les mécanismes dans le réseau, de manière dynamique, uniquement lorsqu’ils sont nécessaires,
i.e. adaptés a
ux besoins de l’utilisateur et de l’opérateur. Il s’agit par exemple de n’offrir le service réseau, tel
que la gestion de la mobilité, de la QoS ou de la sécurité, que si besoin. Ceci doit permettre d’optimiser la
réactivité du réseau, de faciliter la mise

à l’échelle, d’élargir la couverture réseau offerte au client en facilitant
sa mobilité d’un accès à un autre.

En particulier, il s’agit de définir des contextes et des mécanismes d’association au réseau incrémentaux en
fonction des besoins de connectivit
é en rendant possible la transition d’un contexte à un autre.

Il pourrait être envisagé de reprendre l’idée de contextes de mobilité multiples, en cours d’étude au 3GPP
pour la Release 9 (cf. MAPCON, Multi
-
Access PDN Connectivity), de les étendre à tout t
ype d’accès y
compris fixe et à rendre leur gestion dynamique pour assurer une meilleure flexibilité du réseau. Ces



contextes pourraient entre autres être alimentés par des informations de configuration (cf. Working Group
IETF MIF
[7]
). Un identifiant d’utilisateur à structure hiérarchique pourrait aussi être utilisé. Côté réseau, il
serait possible de n’activer des ancres de mobilité qu’en cas de besoin de mobilité (extension du procédé
DMA).


Les objectifs sont de développer des
mécanismes innovants

:

-

de gestion de connectivité personnalisée, couvrant aussi bien la connectivité la plus simple (le réseau
fournit seulement une adresse IP et une authentification légère) que la connectivité requérant le plus de
services réseau (tels q
u’un service de mobilité multi
-
accès), en tenant compte des spécificités liées à
l’accès, en élaborant des contextes d’association incrémentaux ou hiérarchiques, en évitant les
redondances fonctionnelles ;

-

de gestion dynamique de cette connectivité, facili
tant la transition entre accès hétérogènes et ne mettant
en œuvre les mécanismes dans le réseau qu’en cas de besoin

; en particulier, prévoir des mécanismes
de transition d’un contexte à un autre

;

-

de détection automatique de besoins de connectivité, perme
ttant notamment de mettre à jour
automatiquement le contexte d’association.

Il sera important de mener une évaluation approfondie de ces mécanismes pour montrer notamment le coût
de leur mise en œuvre et les possibilités de migration à partir des architect
ures de réseau existantes.


Approche
méthodologique

proposée par le responsable technique


-

Etat de l’art sur la base des travaux d’architectures multi
-
accès initiés à Orange Labs (par ex., DMA
[4]
,
MEVICO
[6]
).

-

Identification des divers besoins de connectivité de l’utilisateur au réseau

:

o

Classifier les besoins en fonction de critères à spécifier, par exemple sous forme
d’arborescence, cf. schéma de classification ci
-
dessous
(
Classification of mobility bas
ed on
network topology
[2]
)

;

o

Faire ressortir pour chaque classe, les fonctionnalités de réseau minimales requises en termes
de sécurité, QoS, mobilité et identifier leurs limites

de service pour l’utilisateur ;

o

Associer les mécan
ismes d’accès et les contextes utilisateur correspondants, lorsqu’ils existent

;
identifier notamment les contraintes sur les équipements correspondants (par ex., mécanismes
d’échange entre réseau et terminaux spécifiés au 3GPP par la fonction d’ANDSF (Acc
ess
Network Discovery and Selection Function) sur les capacités à supporter les protocoles de
mobilité impliquant ou non le terminal

; activation d’ancres de mobilité).

-

Identification des problèmes de mise à l’échelle et de complexité des architectures act
uelles de réseau
multi
-
accès, sur la base d’analyses des usages et taux de pénétration de services menées à Orange
Labs (cf. MEVICO WP1), focalisée sur le maintien et la mise à jour de contextes d’utilisateur dans le
réseau.

-

Elaboration de scénarios de rés
eau de référence et de modèles analytiques associés.

-

Proposition de mécanismes de gestion de contextes harmonisés et incrémentaux en vue de concevoir
une gestion de connectivité multi
-
accès personnalisée et dynamique.

-

Proposition de mécanismes d’activation

de mécanismes/services réseau associés.

-

Evaluations approfondies sur la base d’études analytiques, de simulation (utilisation d’OPNET ou
d’autres logiciels de simulation) et de comparaison avec les scénarios de référence

; montrer l’intérêt
des mécanismes

proposés quant à la mise à l’échelle et à la réduction de la complexité des
architectures.


Les travaux pourront donner lieu à des mises en œuvre sur plate
-
forme expérimentale de briques de
solutions et seront valorisés à travers la publication d'articles

scientifiques (congrès, revues). Ils pourront
donner lieu également à la rédaction de brevets.


Compétences souhaitées: Bac+5 Master 2 Recherche en réseaux.

Compétences: réseaux cellulaires mobiles (3GPP), IPv4 et IPv6, Mobile IP, WLAN, architectures de
réseaux. Modélisation analytique. Simulations de protocoles et mécanismes réseau (Opnet, NS2 ou autres
logiciels)

Bon niveau d'anglais, parlé et écrit






Figure 1: Mobility classifications according to network service quality.
[2]


[1]

ETSI User Group, STF360, Analysis of current E2E QoS standardization state, January 2009.

[2]

ITU
-
T Recommendation Q.1706/Y.2801, Mobility management requirements for NGN, 11/2006.

[3]

WT
-
203, Interworking betwe
en Next Generation Fixed and 3GPP Wireless Access.

[4]

Gestion de la mobilité dynamique et distribuée, thèse en cours à Orange Labs, 2007
-
2010.

[5]

3GPP Evolved Packet System and femtocell techonologies, Dr S. Schmid, Keynote on “Next
-
Generation Mobile Networks” at IWCMC’09, Leipzig, June 2009, NEC.

[6]

http://www.celtic
-
initiative.org/Projects/MEVICO/abstract.asp

& Celtic Full Project Proposal


Call 7
M
obile Networks
Ev
olution for
I
ndividual
Co
mmunications Experience.

[7]

Multiple Interfaces Pr
oblem Statement,
draft
-
ietf
-
mif
-
problem
-
statement
-
01.txt
,
IETF
draft, octobre 2009.


Planning Global du déroulement de la thèse


Etat de l'art


bibliographie et contour du problème (6 mois)

-

architectures multi
-
accès

-

contextes d’association multiples

-

pro
tocoles de mobilité

-

identification des besoins et des limites d’architecture actuelles

Proposition de mécanismes innovants et de scénarios d’architecture de référence (12 mois)

-

gestion personnalisée et dynamique de connectivité multi
-
accès à base de contex
tes incrémentaux

-

élaboration de scénarios de réseau de référence et identification de critères de performance
associés

-

identification de différentes pistes et analyse théorique des gains escomptés pour l’opérateur (en
termes de complexité des réseaux, d’e
fficacité à grande échelle...)

-

spécifications de solutions

Evaluation (12 mois)

-

élaboration de modèle(s) analytique(s) permettant de caractériser les solutions proposées selon les
critères identifiés (réactivité du réseau, capacité à grande échelle, surcha
rge en signalisation, taille
et nombre de contextes à gérer, coût de mise en œuvre, migration à partir des réseaux existants…)

-

développement de simulateur permettant de comparer différentes approches, valider leur
fonctionnement et identifier les plus pert
inentes

Finalisation (6 mois)

-

synthèse globale des travaux, rapport de thèse et conclusions

-

proposition de perspectives pour l'utilisation des résultats et la suite des travaux à mener (pistes les
plus prometteuses pour Orange).


Contributions secondaires
si prévues


Les travaux pourront donner lieu à des contributions techniques dans le projet collaboratif Celtic MEVICO ou
dans les instances de normalisation (3GPP, BBF, IETF).






Campagne 2010

Fiche descriptive de la thèse


Encadrant Orange Labs: Servane BO
NJOUR


Adresse électronique de l'encadrant : servane.bonjour@orange
-
ftgroup.com


Site: Orange Labs Cesson
-
Sévigné


Sujet de la thèse (
Titre
): Mobilité dynamique dans les architectures de réseau du
futur



Contexte global de l'étude et état de l'art


L’étud
e se situe dans le cadre de propositions de gestion de la mobilité sur de nouvelles architectures de
réseau «

à plat

» et «

multi
-
accès

» basées sur la convergence des infrastructures en tout IP.


Une étude de mise à plat des architectures multi
-
accès a é
té initialisée à Orange Labs par le travail de thèse
sur le protocole Dynamic Mobility Anchoring (DMA) [1]. Celui
-
ci doit se terminer en juin 2010. Il est plus
particulièrement focalisé sur la gestion du plan de données au plus près de l’accès en ne gérant

la mobilité
dans le réseau uniquement lorsque cela est nécessaire, ce qui simplifie au maximum la gestion de la
mobilité tout en renforçant la scalabilité.

Par ailleurs, la définition d'un modèle générique d'exécution de mobilité a été réalisée à Orange
Labs [2]
mais la dynamique n'a pas été poussée jusqu'au bout car cette étude s'appuyait sur une architecture
hiérarchique relativement centralisée.

Enfin, le projet IST Ambient Network [3] qui s'est terminé en décembre 2007 a posé les premières briques
d'
une utilisation dynamique des protocoles de mobilité (en particulier MIP et SIP). Un protocole d'exécution
est choisi dans une "boîte à outil" à chaque décision de mobilité. Cela permet une certaine flexibilité mais
introduit, dans le cadre considéré dans
ce projet d'Ambient Network, une grande complexité

: trois nouvelles
interfaces sont définies pour chaque terminal et nœud du réseau. De plus, bien qu'une architecture complète
soit définie, l'exécution est laissée aux protocoles de la "boîte à outil".



encore, le travail sur le support de
telles approches sur des architectures «

à plat

» reste à mener et ceci, en allant au
-
delà de la considération
des protocoles MIP et SIP afin notamment de prendre en compte la gestion de la joignabilité.

Il apparaît d
onc nécessaire d’étudier où, quand et comment décider de la mise en place des mécanismes de
mobilité réseau en fonction de l'environnement de l'utilisateur (application, connectivité…).


[1] Gestion de la mobilité dynamique et distribuée, thèse en cours à

Orange Labs, 2007
-
2010.

[2]
A generic model for multi
-
access mobility management
, M. Benzaïd FT/NSM/RD/CORE/NAS/D5.1

[3] Ambient Networks Project, D7
-
A.2, "AN System Description", AN Phase 2 Project Deliverable, December
2006,
http://www.ambient
-
networks.org



Objectifs de la thèse/ Résultats attendus/ Défis scientifiques/techniques à relever.


Dans ce contexte global, le travail de thèse proposé vise à définir comment mettre en place
des
mécanismes de mobilité dynamiques de façon à optimiser les ressources des réseaux de l'opérateur (quel
protocole utiliser, activer ou non une ancre de signalisation, gérer la mobilité par flux ou pas, maintenir
uniquement la joignabilité…). Cette gesti
on devra s’adapter automatiquement de façon à répondre aux
besoins, du plus simple aux plus complexes en activant uniquement les fonctions réseau nécessaires. Les
différents protocoles permettant cette gestion dynamique devront être étudiés au moyen d'étud
es
analytiques et de simulation afin de trouver la limite de complexité de mise en œuvre. Le travail doit aboutir à
la proposition de mécanismes opérationnels et facile à déployer.

Une plateforme de preuve de concept pourra aussi être développée en s'appu
yant sur la plateforme DMA [1]
déjà réalisée.

Les résultats de cette thèse viendront s'intégrer dans une solution plus globale d'architecture qui pourra
étendre les concepts à d'autres services réseaux tels que la gestion de la qualité de service ou de
l'a
uthentification.






Approche
méthodologique

proposée par le responsable technique

(Préciser les compétences recherchées nécessaires à l'approche)


Après analyse de solutions de mobilité proposées dans l'état de l'art, le candidat devra identifier les limite
s
de ces solutions dans le cas de déploiement sur une architecture plate distribuée.

Il devra donc identifier les contraintes des différents éléments de l'architecture (terminaux et éléments
réseaux) en fonction de l'environnement du terminal et en déduir
e les sous
-
fonctions/protocoles pouvant être
mis en place dynamiquement.

La solution proposée devra être facilement déployée dans le futur réseau d'Orange et le candidat devra donc
proposer des critères et/ou des méthodes pour évaluer la complexité des sol
utions possibles.

Enfin, après avoir établi la limite de complexité, le candidat spécifiera et démontrera une solution particulière
soit sur le simulateur OPNET soit sur une plateforme.

Ces évaluations seront renforcées par des analyses analytiques permet
tant notamment d’évaluer la
«

scalabilité

» des approches dans le cas de la montée en charge des services de données anticipée pour
les prochaines années.


Le candidat devra maîtriser les protocoles de gestion de la mobilité IP (SIP, MIP, PMIP…) et connaî
tre les
architectures réseaux IP.

Il devra aussi être capable de développer sur un simulateur déjà existant (OPNET) et/ou sur une plateforme
sous LINUX.

Le candidat devra aussi faire preuve d'esprit de synthèse et d'imagination pour être force de propositi
on et
être capable de développer un argumentaire pour défendre ses propositions.

Compétences souhaitées: Bac + 5 en réseaux et telecom

Connaissances: protocoles réseaux IP (MIP, SIP…), architecture 3GPP (IMS serait un plus). Outils de
développement et de
simulation (OPNET). Bon niveau d'anglais (lu, écrit).



Planning Global du déroulement de la thèse (
grandes lignes
)


La première année sera consacrée à un état de l'art sur les propositions d'architectures plates et sur une
mise en relation avec les protoc
oles de mobilité existants. Cet état de l'art s'appuiera aussi sur les travaux
réalisés dans les autres projets de l'OR (étude moyen terme) et sur les premiers résultats des projets
collaboratifs pertinents identifiés (MEVICO, SAIL…).


Le candidat développ
era ensuite une solution globale de gestion dynamique de la mobilité et identifiera les
moyens d'en évaluer la complexité et les performances.

Après avoir, évaluer cette solution et définit la limite de complexité acceptable pour un déploiement réel, le
ca
ndidat développera une preuve de concept sur plateforme ou simulateur et mener les études analytiques
appropriées.


Les 6 derniers mois seront consacrés à la rédaction du rapport de thèse en insistant sur la synthèse et les
perspectives qui découleront de

ces trois ans de travail.


Le candidat s'attachera à réaliser une publication par an et à identifier les possibilités de brevet au plus tôt.



Contributions secondaires si prévues (
participation à des projets collaboratifs
)


Les travaux pourront donner li
eu à des contributions techniques dans le projet collaboratif IST SAIL.






Campagne 2010


Encadrant Orange Labs: E. Bertin


Adresse électronique de l'encadrant : emmanuel.bertin@orange
-
ftgroup.com


Site: Caen


Sujet de la thèse (
Titre
): Contextualisation de
s services de communication
interpersonnelle en entreprise





Contexte global de l'étude et état de l'art


Nous pouvons distinguer trois grands types de contexte des employés, chacun évoluant dans le temps.

Q

Le contexte physique : leur localisation géograp
hique, dans l'espace et leurs actions physiques.

Q

Le contexte applicatif, c'est
-
à
-
dire à la fois sur quelle application (IM, téléphonie…) ils se situent et
quelles informations ils ont renseigné dans ces applications (par exemple dans leur agenda).

Q

Le con
texte communautaire, c'est
-
à
-
dire quel sont leurs contacts usuels, quel est leur position dans un
graphe de réseau social.


De plus, dans le contexte de l'entreprise, les actions à caractère professionnel d'un employé peuvent
usuellement être rattachées à

une activité métier, présentant une valeur ajoutée pour l'entreprise.




Nous utiliserons cette notion d'activité métier pour faire le lien entre les différents types de contexte. Ainsi,
une activité métier de réunion projet s'inscrit dans un lieu parti
culier (par exemple Paris), en utilisant des
applications particulières (par exemple un rendez
-
vous dans l'agenda) et dans une communauté particulière
(par exemple avec les membres d'une équipe projet). Plusieurs activités peuvent former une chaine
cohéren
te, même si elles ne sont pas temporellement consécutives. Ainsi, notre activité de réunion aura pu
être précédée d'une activité de préparation de la réunion (réservation du billet de train, préparation d'une
présentation…) et suivie d'une activité de comp
te
-
rendu.

Une fois détectée cette activité, une grande variété de services contextualisés peut être proposée. Que ce
soient des services pour aider l'utilisateur à accomplir cette activité, des services pour poursuivre cette
activité, des services pour se
replacer dans le contexte d'une activité antérieure mais liée à l'activité
courante, des services pour être avertis de l'activité de ses contacts


et notamment si elle présente une
proximité (par exemple géographique) avec la sienne, aider ses contacts à
déterminer s'ils peuvent
l'interrompre, ou même suggérer des contacts potentiellement pertinents en rapport avec son activité
courante… Ces services pourront notamment être proposés à travers un accès mobile. La distinction mais la
porosité entre l'univers

personnel et professionnel seront également considérés.

Les travaux existants sur la contextualisation sont généralement dans le champ de l'informatique ambiante
(pervasive computing), où les objets d'un environnement communiquent les uns avec les autres
pour
construire un contexte et s'y adapter. Le sujet proposé ici se situe plus dans le cadre de l'activité en
entreprise, où les fournisseurs et consommateurs de contexte sont des services existants de l'opérateur.


Objectifs de la thèse/ Résultats attendu
s/ Défis scientifiques/techniques à relever.





Le sujet est centré sur les usages en entreprise. L'objectif est d'étudier comment l'exploitation de données
(en évolution dans le temps) captées via des applications informatiques ou télécom peut permettre de

déterminer les activités métier des employées et donner lieu ainsi à une contextualisation des services de
communication.
D'un point de vue scientifique il est question de compréhension et de gestion du contexte au
sens large (conjuguer le temps, l'espace
, les interactions, les activités métier). Comment capturer les
données? Comment les exploiter de manière conjuguée? Comment déduire ou prévoir l'activité future en
fonction de l'activité (le contexte) passée ?


Plus précisément, l'objectif de la thèse es
t de définir et d'implémenter

Q

Des mécanismes de détection et de caractérisation des activités métier des employés, dans leurs
dimensions géographiques, applicatives et communautaires, et en prenant en compte les évolutions de
ces dimensions au cours du te
mps ;

Q

Des mécanismes de contextualisation de services de communication en fonction de ces activités métier,
en direction soit de l'employé, soit de ses contacts potentiels. La contextualisation peut consister
notamment en l'adaptation des services au conte
xte, ou en la proposition pertinente de nouveaux
services à l'employé ou à ses contacts en fonction de leur contexte.


Les verrous scientifiques à lever afin de réaliser ces mécanismes sont en particulier :

Q

Relier les données captées à des activités métier

de l'entreprise. La difficulté réside dans

:

o

La collecte des informations utiles dans une logique d’instrumentation. Cette phase implique
une connaissance des usages et des outils informatiques pour identifier la position physique
ou logique des capteurs
(à quel endroit dans le code ou dans les IHM) dans le respect des
contraintes éthiques et juridiques.

o

La gestion cohérente de données hétérogènes collectées en relation avec les interactions
(données linguistiques dans les échanges, interprétation sémantiq
ue des grandeurs
physiques temps
-
localisation, données quantitatives comme la fréquence d’activité, …).
Avant d’exploiter les techniques algorithmiques évoquées plus bas, cette gestion requiert
une expertise spécifique (sensibilité au facteur humain et aux

interactions langagières) pour
orienter le choix des sources de données à prendre en compte par exemple dans méthodes
d’apprentissage non supervisé. L’algorithme ne fera pas tout.

o

La définition d'une typologie des activités métiers des entreprises dans l
esquelles
interviennent les services de communication, et la caractérisation des données captables
matérialisant ces activités métier.

Q

Modéliser et prédire un enchainement d'activité métier probable à partir par exemple des activités
antérieures, de l'hist
orique de l'employé, des processus métier de l'entreprise. On envisagera des
méthodes de type datamining en cherchant à faire collaborer des approches statistiques et structurelles.

o

Les Méthodes d’Appariement Optimal qui peuvent s’appliquer à bien des obje
ts dès lors que
l’étude porte sur une succession d’états ou d’actions. Cette technique est particulièrement
adaptée quand les séquences ne sont pas homogènes, par exemple dans le temps. Elle
permet en outre de calculer des distances / similarités entre séq
uences.

o

On pourra envisager l’utilisation d’un modèle basé sur les chaines de Markov (cachées)
pour simuler l’aspect prédictif des enchainements d’activités.

Q

Exploiter ces prédictions d'activité métier pour contextualiser les services de l'utilisateur. Les

services
considérés seront les services fournis par France Telecom, et notamment les suites de communications,
tels que téléphonie, présence, messagerie instantanée, email. On prendra en compte à la fois l'utilisation
de ces services et la configuration d
e ces services. La contextualisation sera implémentée au sein des
composants techniques des services de communication, soit au niveau de l'interface d'accès au service
(terminal ou serveur web), soit au niveau des plates
-
formes de service.


Approche
méthod
ologique

proposée par le responsable technique

(Préciser les compétences recherchées nécessaires à l'approche)


La thèse sera menée par des itérations successives d'environ 6 mois. Dans un premier temps, le doctorant
prendra contact avec les travaux réalis
és dans l'équipe d'accueil et réalisera un état de l’art des travaux
apparentés. Par la suite, chaque itération donnera lieu à un démonstrateur ou à un complément de
développement permettant de valider l'approche suivie.


Les compétences requises sont de b
onnes connaissances en technologies web et en services de
communication. Le candidat aura typiquement suivi un Master 2 en Réseaux Télécoms.La thèse est basée
aux Orange Labs de Caen. L'école doctorale de rattachement sera spécialisée en informatique et

lécommunications.




Campagne 2010


Encadrant Orange Labs: Patrick Tortelier


Adresse électronique de l'encadrant :
patrick.tortelier@orange
-
ftgroup.com



Site:Issy les Moulineaux


Sujet de la thèse
(
Titre
): Codes correcteurs d’effacements et accès opportuniste au
spectre



Contexte global de l'étude et état de l'art

Les schémas d’accès opportunistes au spectre font intervenir une étape de détection d’éventuels utilisateurs
déjà présents dans la bande
. Les performances de cette détection dépendent du temps d‘observation.

Ce temps doit cependant être le plus court possible en particulier s’il faut libérer le spectre lors du retour d’un
utilisateur primaire (celui qui a la licence), avec la conséquence q
ue la détection est entachée d’erreur et
caractérisée par des probabilités de non détection (P
ND
) et de fausse alarme (P
FA
). Ces deux quantités ne
sont pas indépendantes (les couples


ND
D
FA
P
P
P


1
,

dessinent une courbe appel
ée courbe ROC du
récepteur). On peut choisir le point de fonctionnement (P
FA
, P
ND
), c’est un degré de liberté dans la
conception de la détection. L’objet de la thèse est de tirer parti de la possibilité de considérer les éventuels
paquets perdus lors d’une

collision (ou non transmis pour éviter une collision) comme des paquets effacés
qu’on pourrait récupérer grâce à l’utilisation de codes correcteurs d’effacements, ce degré de liberté pouvant
servir pour le choix du point (P
FA
, P
ND
) (on peut tolérer plus d
e pertes de paquets car on sait les récupérer,
au prix de la redondance introduite, d’où recherche d’un compromis).

1.

H. Kushwaha, Y. Xing, R. Chandramouli, P.
Subbalakshmi: “Erasure tolerant coding for cognitive
radios”. Chapter in
Cognitive Networks: Towar
ds Self
-
aware Networks

, Q.H. Mahmoud (Ed.), Wiley,
2007.

2.

H. Kushwaha, Y. Xing, R. Chandramouli and H. Heffes
: “Reliable multimedia transmission over
cognitive networks using fountain codes”, Proceedings of the IEEE, vol. 96, N°1, jan 2008.

3.

G. Yue, , X. Wa
ng: “Cognitive radio, anti
-
jamming coding retransmission methods and systems”,
United States Patent Application 20090282309.

4.

C. Ghosh, S
. Pagadarai, D. P. Agrawal, A. M. Wyglinski, "Statistical Spectrum Occupancy Modeling
and Validation against real
-
time M
easurements," IEEE Transactions on Wireless Communications,
Vol. 9, No. 1, Jan. 2010, pp. 38
-
44.

5.

X. Shao, H. Cronie, F. Hoeksema, K. Slump:
“Fountain codes for frequency occupancy information
dissemination”,2006.




Objectifs de la thèse/ Résultats attendu
s/ Défis scientifiques/techniques à relever.

Amélioration de l’usage opportuniste du spectre par utilisation de solutions qui abordent le principal
problème lié à un usage opportuniste

: les défauts de la détection d’autres utilisateurs. La fausse alarme e
st
cause d’occasions manquées d’utiliser la ressource spectre, la non détection est source de collisions avec
d’autres utilisateurs. La thèse a pour objet de voir s’il est possible d’augmenter les débits des utilisateurs en
tolérant plus de collisions







Approche
méthodologique

proposée par le responsable technique

(Préciser les compétences recherchées nécessaires à l'approche)


Connaissances requises

: Radio cognitive, détection des signaux, principes des codes correcteurs
d’erreurs

; algorithmique, pro
grammation en C++, Matlab.

Connaissances souhaitées

: codes correcteurs d’effacements (leur génération, leur décodage).







Planning Global du déroulement de la thèse (
grandes lignes
)

-

Bibliographie sur le sensing et sur les codes correcteurs d’effacements

-

I
mplémentation du décodage des codes correcteurs d’effacements

-

Compromis entre sensing et correction des effacements

-

Construction de codes adaptés au problème considéré.

-

Evaluation analytique des performances.

-

Simulations des performances dans divers enviro
nnements



Contributions secondaires si prévues (
participation à des projets collaboratifs
)


Contribution au projet européen FARAMIR.





Campaign 2010

Description of the PHD


Orange Labs Supervisor:

Vincent Barriac

Supervisor email:

Vincent.barriac@orang
e
-
ftgroup.com

Location:

Lannion (France)

PHD title:

Development of a technical diagnostic method for voice

quality impairments perceived in
telephone communications, based on an analysis of speech signal.


Global context and state of the art


The assessm
ent of perceived quality of voice communications can be performed thanks to two rather distinct
families of tools:

-

Signal analysis techniques, from simple measures like signal level or spectrum until complex
“psycho
-
acoustical” models combining signal anal
ysis and modelling of human perception and
judgment (like PESQ, ITU
-
T P.862).

-

Parametric techniques based on an interpretation of technical factors not linked to the signal itself,
but rather to the way it has been processed and transported inside the netw
ork.

Inside these two families, methods have been recently developed, which are particularly accurate, allowing
pertinent prediction and estimation of perceived voice quality.

More recently, new approaches have been developed, called “hybrid” because they
combine measurement
on signal and parametric indications, in particular in the context of voice over IP. The complementarities of
signal
-
based and parametric families of methods make it possible (in theory) to envisage a combination of
their respective adv
antages: accuracy for signal based techniques, and capacity of parametric tools to be
implemented without constraint on CPU or on signal decoding. Furthermore, parametric methods bring
elements of understanding about the technical underlying causes (e.g. p
acket losses may explain cuts in the
signal).

But all these methods have a common drawback: they do not allow a link between the perceived
impairments and their origins. Some academic studies can be quoted on this, but without real result until
now. From a
n operational point of view, this is however the real goal of any assessment technique to find the
causes for issues and propose fixes.


PHD objectives / Expected results / Scientific challenges / Key Issues

The basic idea behind this new study is that it
is now realistic to envisage providing operational supervision
teams with powerful diagnostic tools able to give them an expert view of the perceived voice quality
impairments on telephone communications and to troubleshoot these impairments deep in detail
.

The objective of this study is therefore the development of such a tool, combining analysis of the audio signal
and interpretation of parametric data.

This study will specifically focus on VoIP services and architectures. These are based on IMS solutions

(SIP
protocol) provided by a few technology vendors to France Telecom/Orange. The extrapolation of the results
of this study to general (and even standardisable) rules of diagnostic (in general highly dependent on specific
characteristics of services and
networks) is not easy to foresee, and therefore we won’t try to work on that
direction.

This work will be undertaken in close cooperation with (in a first time) our searchers specialised in the
development of algorithms and models for voice signal processi
ng (voice quality measurement, speech
coding, voice enhancements) and (afterwards) with operational teams having the knowledge of network
equipments characteristics and able to provide data on real incidents necessary to set up diagnostic rules.


Methodolo
gical approach proposed by the supervisor





We foresee two steps:

-

detection in speech signal of perceived and annoying degradations, classified in general categories:

o

cuts in the signal, loss of information

o

distortion of the audio signal

o

different types of

noises

o

signal level modifications

o

various impairments linked with interaction issues (e.g. echo)

-

determination of more detailed sub
-
categories (e.g. for noise: distinction according to spectral
content and level), linked with known and identified technica
l causes

The first step is clearly and purely signal processing oriented. We must mention that recent PhD. studies
(e.g. M. Wältermann at DT, N. Côté and A. Leman at FT) started this work and already determined
degradation categories (for listening
-
only co
ntexts), as well as first (still perfectible) detection algorithms.

The second step is more the focus of the current study. It will combine the existing algorithms (or
enhancements of them) with the analysis of IP parametric information (packet loss ratio
and its time
repartition, network equipments counters or trouble tickets, measurements performed on terminals, etc.)


Global schedule


The time schedule will follow the distinction in two steps exposed before:

-

Enhancement of existing algorithms, to allow d
etection of sub
-
categories as well as “recognition” of
the signature of some signal processing features (noise reduction, coding and transcoding, etc.).
This is the hardest and longest part of the study.

-

Setting up of diagnostic rules to link these new sub
-
categories to real technical issues, thanks to a
combination of measurements on signal and of parametric data. An expert system based on
neuronal networks is foreseen, but other approaches can be envisaged as well.


Additional contributions


None foreseen

until now.





Campagne 2010

Fiche descriptive de la thèse


Encadrant Orange Labs:
Joel Jung


Adresse électronique de l'encadrant :
joelb.jung@orange
-
ftgroup.com


Site:
Issy


Sujet de la thèse (
Titre
):

Codage multi
-
vues plus profondeur (MVD) avancé pour la T
V
-
3D et le FTV.



Contexte global de l'étude et état de l'art


La vidéo mutli
-
vues, capturée par des caméras synchronisées à partir de points de vue différents, comporte
des informations 3D importantes pour les nouveaux services tels que la TV
-
3D ou le FTV

(Free ViewPoint
TV). Néanmoins, deux points majeurs sont susceptibles de ralentir leur arrivée pour le grand public

: 1
-

la
qualité d’affichage (rendering/display), et 2
-

la qualité du contenu (codage 3D).


En ce qui concerne le premier point, différent
es études montrent que les avis semblent converger
globalement. Dans [1], à la question «

quelle est la techno d’affichage la plus prometteuse pour introduire
les services 3D à la maison

?», la réponse est majoritairement les «Stereoscopic Display» avec l
unettes
polarisées (attendus en 2010
-
2012). Des variantes d’ «

Auto
-
stereoscopic Display

», bien que fournissant
aujourd’hui une expérience utilisateur insuffisante, sont notées de «prometteur» à «très prometteurs» pour
2015
-
2020, avec résolutions allant
de 1080p 50Hz (certain), à 2160p (très probable). Ces dernières
variantes ne doivent donc pas être écartées aujourd’hui.


En ce qui concerne le second point, la quantité d’information nécessaire pour fournir le contenu 3D, liée au
nombre de points de vue,
est gigantesque. Disposer d’un codeur video multi
-
vues performant est donc
nécessaire pour permettre l’essor de ces applications TV
-
3D ou FTV. Les travaux sur le codage de vues
multiples ne sont pas récents

: MPEG
-
2 inclus un profile capable de traiter 2 v
ues. En 2007, MPEG
-
C part 3
facilite l’approche «

2D + profondeur

», en proposant un format de représentation pour les «Auxiliary Video
and Supplemental Information», comme les cartes de profondeur. Enfin, en 2008, l’annexe multi
-
vues de
H.264 est proposée
. Les résultats associés sont cependant très décevants. Globalement, le débit requis
reste proportionnel au nombre de vues


un gain de 20% seulement, par exemple, est observé par rapport
au simulcast dans le cas de 8 vues. MVC n’est donc pas une solution
long terme pour le codage multi
-
vues.
Aujourd’hui, MPEG et l’ITU
-
T lancent le projet H.265. Initialement ce projet adresse le codage 2D pur

: il est
fort probable qu’il n’y ait pas de fonctionnalité multi
-
vues dans un premier temps, mais que celle
-
ci
appar
aisse plus tard sous forme d’une sur
-
couche


Le but de cette thèse est d’adresser en profondeur le 2
e

point, tout en considérant l’environnement (points
1), qui sera modélisé le plus fidèlement possible. Le contexte global est idéal pour aborder cette
prob
lématique de codage multi
-
vues

de bout en bout : la première génération d’écran est disponible, d’une
part, ce qui permet l’évaluation des résultats, et d’autre part les fonctionnalités de codage multi
-
vues ont été
abordées, mais n’apportent pas à ce jour
de gains suffisants.









Objectifs de la thèse/ Résultats attendus/ Défis scientifiques/techniques à relever.


L’objectif de la thèse est de proposer des méthodes de codage innovantes pour la prise en compte de
n

vues (avec m cartes de profondeurs
n
m


0
), dans le cadre d’applications telles que la TV
-
3D haute
résolution, ou FTV. De manière additionnelle, elle pourra fournir, à plus court terme, des briques de codage
lors de la mise en place de l’annexe multi
-
vues du codeur H
.265.





Les défis scientifiques consistent d’une part à mieux coder le flux multi
-
vidéos, en utilisant plus efficacement
la corrélation inter
-
vues, par exemple, mais aussi de prendre en compte les artefacts de codage et de
restitution du relief dans le cadr
e d’applications ciblées. Sur quelle composante du flux vidéo peut
-
on
gagner

? Quel impact sur la vidéo 3D restituée

?


L’environnement global du codage vidéo sera étudié, et pris en compte pour une optimisation de bout en
bout. En effet, l’adaptation aux
caractéristiques du display et au rendering sont encore plus cruciaux qu’en
2D pour fournir un rendu 3D cohérent.




Approche
méthodologique

proposée par le responsable technique

(Préciser les compétences recherchées nécessaires à l'approche)


Le codage

multi
-
vues multi
-
profondeurs laisse place à ce jour à de nombreuses voies d’exploration. La
corrélation inter
-
vues n’est pas correctement exploitée, c’est pourquoi malgré son apport de 8 à 12% elle n’a
pas été conservée dans MVC [2][3]. Plus de recul et d
e recherches sont nécessaires pour intégrer
efficacement ces schémas, et adresser les problématiques telles que la compensation d’illumination,
l’interpolation de la profondeur, l’estimation, la compensation et le codage de la disparité, la correction de
c
ouleur, le calcul de GDV (global disparity vector) pour des approches de type motion skip, par disparité
dense [4] ou autres, ou encore les View synthesis prediction (VSP).


L’analyse de la robustesse et des schémas de transport appropriés s’appuiera sur l
es résultats de travaux
de recherche récents [5][6][7]. L’adaptation aux caractéristiques du display sera le résultat d’études
subjectives poussées.


Des liens étroits avec d’autres thèses menées dans l’URD CVA sont envisagés

: prise en compte du
mouvemen
t intra et inter vues (liens avec les tubes de mouvements (M. Urvoy), et outils de codage de
mouvement 2D (Laroche, Thiesse), ou encore pour la prédiction par synthèse de vues (M. Moinard, + sujet
2010 Codage vidéo scalable par analyse et synthèse de donné
es)).




Planning Global du déroulement de la thèse (
grandes lignes
)



Le déroulement de la thèse sera le suivant :

1
-

Etat de l’art, bibliographie, focus sur MVC

2
-

Mise en place du cadre formel de l’étude

: sélection de displays/rendering utilisation de modé
lisation
existante

3
-

Proposition d’outils de codages et développement, évaluation subjectives et objectives dans le cadre
spécifié par l’étude

4
-

Rédaction du manuscrit




Contributions secondaires si prévues (
participation à des projets collaboratifs
)




Refer
ences


[1] “Beyond HDTV: Implications for Digital Delivery”

, K. McCann, ZetaCast, Independent Report, July 2009.






[2]
Coding

techniques in

Multiview

Video

Coding

and Joint

Multiview

Video
Model
, Ying Chen; Hannuksela, M.M.; Ling Zhu; Hallap
uro, A.; Gabbouj, M.; Houqiang
Li;

Picture

Coding

Symposium, 2009. PCS 2009.


[3]
Coding Algorithms for 3DTV

A Survey
, Smolic, A.; Mueller, K.; Stefanoski, N.;
Ostermann, J.; Gotchev, A.; Akar, G.B.; Triantafyllidis, G.; Koz, A.;

IEEE Transactions on CSVT

[4
]

Dense disparity estimation in

multiview

video

coding
, Daribo, I.; Kaaniche, M.;
Miled, W.; Cagnazzo, M.; Pesquet
-
Popescu, B.;

M
ultimedia Signal Processing, 2009.
IEEE International Workshop on MMSP '09.



[5] SVC/MVC

content

protection over P2P

delivery networks
, Garcia, L.;
Arnaiz, L.; Alvarez, F.; Zahariadis, T.;

Consumer Electronics, 2009.

ICCE '09.



[6] Multiple Description

Coding

versus Transport Layer FEC for
Resilient

Video

Transmission
, Soldani, C.; Leduc, G.; Verdicchio, F.; Munteanu,
A.;

Digital Telecommunications, , 2006. ICDT '06.



[7]
A performance comparison of multip
le description video

streaming in
peer
-
to
-
peer and

content delivery

networks
, Khan, S.; Schollmeier, R.; Steinbach,
E.;
Multimedia and Expo, 2004.
ICME '04. 2004





Campagne 2
010

Fiche descriptive de la thèse


Encadrant Orange Labs:
François Toutain


Adresse électronique de l'encadrant :
francois.toutain@orange
-
ftgroup.com


Site:
Lannion


Sujet de la thèse (
Titre
):


Exploitation de données massives pour le développement de ser
vices de communication
sensibles au contexte.





Contexte global de l'étude et état de l'art


La thématique des services et applications sensibles au contexte est un axe de recherche fort dans les
NTIC, avec de nombreuses applications y compris dans le do
maine des services télécoms. Cette thématique
est par exemple identifiée dans la consultation publique sur l'Internet du Futur, lancée par le gouvernement
le 20 mai 2009.


La gestion des informations de contexte de l'utilisateur donne lieu à de nombreuses
applications, depuis
l'adaptation des interfaces jusqu'aux environnements intelligents. Une classe d'applications pour laquelle la
prise en compte du contexte suscite un grand intérêt est celle des services de communication
interpersonnelle. En effet il es
t patent que les phénomènes de convergence et d'interaction des technologies
conduisent à complexifier les services et leur paramétrage ; la prise en compte du contexte permet en tel
cas de simplifier les modalités des services. D'autre part, des services
de communication novateurs sont
créés, fondés sur la connaissance du contexte des utilisateurs, et proposant des fonctionnalités séduisantes,
auparavant inimaginables.

La gestion informatique classique des informations de contexte obéit à une logique de ca
pture, de
modélisation, de stockage et distribution, puis de traitement de ces données par les applications utilisatrices.
La modélisation des informations rend possible des traitements variés : fusion de données, apprentissage,
raisonnement par inférence…

L'étude proposée se focalisera quant à elle sur des techniques d'observation de larges populations
d'utilisateurs, par exemple au travers du filtrage collaboratif, traditionnellement employé dans le domaine de
la recommandation. L'idée sous
-
jacente est d'
exploiter l'historique de contexte d'une population d'utilisateurs
pour fournir les données de contexte adaptée à une situation ainsi que pour infléchir les stratégies
d'adaptation. L
a problématique proposée porte ainsi sur l'exploitation de similarités en
tre utilisateurs pour
mettre en œuvre et améliorer la sensibilité au contexte.
L'intérêt d'une telle approche réside dans la
mutualisation opérée par le filtrage collaboratif, qui peut améliorer l'efficacité des techniques de gestion de
contexte.



Objecti
fs de la thèse/ Résultats attendus/ Défis scientifiques/techniques à relever.



L'objectif de la thèse est de se pencher sur l'exploitation de techniques permettant l'observation d'une large
population d'utilisateurs. Ces techniques, telles que le filtrage

collaboratif largement étudié dans le cadre
général de la recommandation, exploitent un historique observé sur une population, et bâtissent des
suggestions en découlant.


Les questions traitées pourront être notamment : le choix et l'adaptation des techn
iques de filtrage
collaboratif en vue de leur exploitation par des services de communication sensibles au contexte ;
l'adaptation des technologies de gestion de contexte à cette approche ; l'analyse des classes de services
pour lesquelles cette approche es
t pertinente ; l'évaluation de la portée et des limites de cette approche, par
comparaison avec d'autres modalités de gestion du contexte ; la démonstration, au moyen d'un prototype,
des principes dégagés lors de la thèse.





Un résultat de la thèse pourra ê
tre une technique de filtrage collaboratif adaptée à la question du contexte,
une modélisation de contexte adaptée au filtrage collaboratif, ou une approche d'intégration des deux, ou
pourquoi pas une approche de la notion de similarité sous un autre angle

que celui du filtrage collaboratif.


A terme, l'ambition est d'ouvrir la voie à la conception de services de communication interpersonnelle
novateurs.



Approche
méthodologique

proposée par le responsable technique

(Préciser les compétences recherchées né
cessaires à l'approche)



L'approche méthodologique envisagée consiste, après une prise en main des domaines concernés, en une
étude de cas sur un service de communication bien circonscrit. Cette étude de cas doit permettre de définir
précisément les axes
d'étude envisageables, et d'appréhender la portée des innovations qui peuvent être
atteintes par la conjugaison du filtrage collaboratif et de diverses techniques de gestion de contexte. Une
généralisation de ces résultats est ensuite à envisager, afin de
définir un cadre général de cette conjugaison,
et d'en étudier les bénéfices et les limites. Enfin, la mise au point d'un prototype est souhaitée, afin de
démontrer les apports de l'étude.


Les compétences requises se rapportent globalement :


-

au domaine d
e l'algorithmique, avec des connaissances ou un intérêt pour les techniques de
modélisation, d'apprentissage, d'inférence, la gestion de données sémantiques etc.…

-


-

au domaine des télécommunications, avec des connaissances ou un intérêt pour les services d
e
communication interpersonnelle sur réseau IP.




Planning Global du déroulement de la thèse (
grandes lignes
)


1ère année :



État de l’art sur les technologies large population (filtrage collaboratif…), sur la sensibilité au
contexte, et sur les travaux
conjoints



Analyse de la problématique posée et des approches possibles, proposition d'axes d'étude

2ème année :



Etude de cas, sur un service de communication donné



Elaboration d'un système intégré permettant l'analyse de plusieurs stratégies de gesti
on du contexte



Validation des travaux par des études expérimentales

3ème année :



Généralisation de la proposition, étude de ses limites



Conception et réalisation d'un prototype démontrant l'intérêt des principes étudiés.



Rédaction du rapport de thè
se



Contributions secondaires si prévues (
participation à des projets collaboratifs
)



Non





Campaign 2010

Description of the PHD


Orange Labs Supervisor:
François Toutain


Supervisor email:
francois.toutain@orange
-
ftgroup.com


Location:
Lannion




PHD ti
tle:


Exploiting
massive data to develop context
-
aware communication services



Global context and state of the art


A promise of ambient computing is about the multiplication of information relating to a user, which can be
automatically processed and int
egrated. All this information provides the user's
context
, and gives rise to
many applications, from interface adaptation to smart environments.


Some applications which greatly benefit from context
-
awareness are the interpersonal communication
application
s. Actually, it is well
-
known that the phenomenon of convergence and increased technology
interactions lead to more complex services and more complex configuration. Taking the context into account
for these applications makes it possible to simplify the in
teractions with these services. On another hand,
innovating services can be imagined, based on the accrued knowledge about the users' contexts, and
offering attractive, previously unthinkable features.


The classical way of computationally managing the con
text data involves several steps, which are concerned
with capturing data, modelling the context, storing and dispatching it, and the actual processing of the
context knowledge by the target applications. Advanced modelling techniques make it possible to p
erform
varied high
-
level processing, such as data fusion, automated learning, inference
-
based reasoning…



PHD objectives / Expected results / Scientific challenges / Key Issues


The proposed study will focus on techniques to process large amounts of user
data, such as collaborative
filtering techniques

or statistical approaches, traditionally used for recommendation applications. The
underlying idea is to analyse the context history of an entire population of users, in order to provide context
data targete
d to a given situation, as well as to influence or to drive adaptation strategies. The problem thus
proposed relates to the exploitation of similarities between users to implement and improve context
awareness.


In much the same way that online vendors ca
n point customers to items that other customers with similar
tastes have enjoyed, the envisioned systems will be able to adapt communication services to the tastes of
users, having observed the benefits of the adaptation to users with similar tastes, profi
les or needs. The
advantage of this approach lies in the mutualisation made by the collaborative filtering techniques, which can
improve the effectiveness of context management techniques.


The issues covered will include: the selection and adaptation of m
assive data processing techniques (such
as collaborative filtering techniques) for use by context
-
aware communication services; the adaptation of
context management technologies to this approach, analysis of service classes for which this approach is
relev
ant; assessment of the scope and limitations of this approach in comparison with other context
management strategies; a demonstration, using a prototype, of the principles outlined in the thesis


Ultimately, the goal is to pave the way for the development
of innovative, context
-
aware, interpersonal
communication services.







Methodological approach proposed by the supervisor


The methodological approach envisioned consists in a case study based on a well defined communication
service, after a first phase f
or approaching the related domains. This case study must allow to precisely
define the possible research directions, and to comprehend the range of the innovations made possible by
conjugating massive data
-
based techniques with diverse context management t
echnologies. Generalizing
these results must also be envisioned, in order to define a general framework for this conjugation, and to
assess its benefits and its limits. Finally, the design of a prototype is required, in order to demonstrate the
benefits of

the whole work.


The requested competencies are linked to:


-

The algorithmic domain, with knowledge of or an interest for modelling techniques, learning
techniques, inference, semantic data processing, etc.


-

The telecommunication domain, with knowledge of
or an interest for interpersonal communication
services on IP networks.



Global schedule



Planning:


1
st

year:



State of the art on collaborative filtering, on context
-
awareness, and on joint works



Analysis of the problem, definition of study axes

2
nd

yea
r:




Case
-
study on a given communication service



Design of an integrated system allowing analysis of several context management strategies



Result validation by way of experimental studies

3
rd

year:



Generalization of the proposed techniques, study of their l
imits



Design and development of a prototype service, demonstration of the proposed principles.



Drafting of the thesis



Additional contributions


None




Campagne 2010

Fiche descriptive de la thèse


Encadrant Orange Labs:

-

Marie
-
Hélène Hamon

-

Pierre Pénard


Adresse électronique de l'encadrant :

mhelene.hamon@orange
-
ftgroup.com

/
pierre.penard@orange
-
ftgroup.com


Site: Orange lLbs Rennes


Sujet de
la thèse (
Titre
):
Etude et implémentation d'une architecture de décodage générique et
flexible pour codes correcteurs d’erreurs avancés.



Contexte global de l'étude et état de l'art


Le cadre d’étude de cette thèse inclut des compétences tant en communica
tions numériques et codes
correcteurs d’erreurs qu’en architectures matérielles appliquées à l’implémentation de «

proof of concept

»
de telles fonctions à l’aide des dispositifs de prototypage de type composant programmable.


Dans le domaine des transmiss
ions numériques, et plus particulièrement lorsque le canal est de type
hertzien, la fonction principale de ces codes correcteurs est de permettre la levée des ambiguïtés apportées
par le canal sur le message transmis. Le gain de performances apporté par ce
s codes pouvant être affecté à
la réduction de consommation des terminaux, à l’augmentation du volume d’informations transmis ou encore
à une plus grande flexibilité dans la gestion de la taille des cellules.


Au rang des codes offrant les meilleures perfo
rmances à ce jour, on trouve les turbo
-
codes pour lesquels les
laboratoires de FTR&D disposent d’une grande expertise en codage/décodage. Depuis peu, des solutions
de réalisation apparaissent également pour des codes inventés en 1960 par Gallager, et offra
nt des
performances comparables: les codes LDPC. Enfin, de récentes études menées à FT R&D ont conduit à la
mise au point de nouvelles structures de codes correcteurs hybrides aux performances prometteuses, et
dont la complexité d’intégration semble avant
ageuse (codes QC S
-
SCP, T
-
LDPC,…).


Le but de cette thèse consiste à étudier les nouvelles problématiques posées par l'évolution des systèmes
de communication. En effet, les systèmes normalisés, ou en cours d’études sont souvent spécifiés pour
différents
média de transmission ou conditions d’exploitations qui font que plusieurs technologies de FEC
peuvent être amenées à cohabiter. De plus, la nécessaire compatibilité avec les équipements existants peut
rendre nécessaire la présence de dispositifs matériels

d’encodage ou de décodage de turbo
-
codes et de
codes LDPC, dans le même équipement

On peut ainsi avoir différents FEC au sein d'un même standard (cas par exemple du IEEE 802.16 / WiMax).
Une autre tendance dans les années à venir est la multiplication du
nombre d'interfaces sur un même
terminal: c'est le cas par exemple de terminaux mobiles implémentant les technologies WiFi (IEEE 802.11n)
et mobile (3GPP LTE), qui spécifient des FEC différents (LDPC pour le 802.11n, Turbo Codes pour le LTE).
Une optimisat
ion de la complexité et des coûts peut passer par une meilleur optimisation et mutualisation de
fonctions de codage et de décodage.


En effet, en dépit de constants progrès technologiques (loi de Moore), le coût en termes de surface de
silicium, notamment
des structures de décodage, conduit à se poser la question de la mutualisation des
ressources nécessaires à ce processus, entre des fonctions à but similaires (FEC), et mettant
traditionnellement en œuvre des algorithmes de traitement différents.



Objecti
fs de la thèse/ Résultats attendus/ Défis scientifiques/techniques à relever.

Le premier objectif de la thèse consistera à réaliser un état de l'art et étudier les algorithmes mis en œuvre
de manière classique pour le décodage des turbo
-
codes

: max log map
, sub
-
map etc… ainsi que pour les
codes LDPC

: Belief Propagation et Layered Belief propagation essentiellement.





Cette étude devra ensuite s’attacher à identifier les traitements qui pourraient être mutualisés entre ces
technologies, et devra conduire à p
roposer une architecture de décodage pouvant traiter à la fois des codes
LDPC et des Turbo Codes, voire d'autres familles de codes dérivées.


L'étape suivante consistera à spécifier des fonctionnalités génériques, permettant d'assurer certains
traitements
communs aux deux grandes familles de codes, et à les optimiser dans un objectif de réalisation
matérielle, tout en prenant en compte les contraintes de complexité visant à diminuer l'encombrement et la
consommation, ainsi que la conservation du niveau de p
erformances.


Enfin, la thèse comportera un volet implémentation sur une plate
-
forme matérielle permettant de:

-

Démontrer la faisabilité des concepts,

-

Valider le niveau de performance,

-

Quantifier les gains de complexité et de consommation qui auront
été acquis.



Approche
méthodologique

proposée par le responsable technique

Ce travail dont l’étendue va de l’étude théorique à la réalisation matérielle, devra s’appuyer sur des
compétences avérées, dans les disciplines concernées.

Les compétences minimal
es requises sont:

-

Traitement du signal et communications numériques, notamment concernant le codage correcteur
d'erreur

-

Capacité à utiliser des outils de modélisation et de simulation pour évaluer les performances des
algorithmes proposés

-

Développem
ent: C/C++, Matlab

-

Prototypage matériel: VHDL, outils de simulation, synthèse sur FPGA



Planning Global du déroulement de la thèse (
grandes lignes
)

La thèse sera distinctement partagée en deux volets:

La première partie (environ la moitié du temps) conc
ernera l'étude et la spécification de fonctionnalités
génériques, mutualisant des traitements de codage et décodage pour les deux grandes familles de codes


-

Etat de l'art, bibliographie sur les Turbo Codes et Codes LDPC


-

Etude des architectures de coda
ge et décodage et identification de blocs pouvant être mutualisés


-

Spécification et optimisation de ces traitements afin de maintenir le niveau de performance et
réduire la complexité / consommation.


La seconde partie du travail sera consacrée au dévelo
ppement d’une solution matérielle mettant en
évidence l'apport des résultats obtenus préalablement:


-

Modélisation VHDL


-

Implémentation / synthèse sur plate
-
forme FPGA


-

Mesure de performances et quantification des gains de complexité.




Contributions

secondaires si prévues (
participation à des projets collaboratifs
)


N/A






Campaign 20
10

Description of the PHD


Orange Labs Supervisor:

Ruby Krishnaswamy


Supervisor email:
ruby.krishnaswamy@orange
-
ftgroup.com


Location: Issy Les Moulineaux




PHD title
:
Adaptive replica management in federated cloud storage
systems





Global context and state of the art



On line
(cloud) data storage as a service is rapidly gaining importance for different kinds and categories of
data. While currently cloud storage ser
vices are offered by large
-
sized data centers, we foresee emergence
of hybrid and massively distributed infrastructures where data centers are combined with consumer
-
end
edge devices such as personal computers, Settop Boxes, owned by the cloud users themse
lves. One of the
advantages in combining these different storage areas is to expand the storage capacities of the cloud
provider's data center by exploiting such less
-
expensive edge resources. However this idea needs to be
accompanied by smart data placeme
nt and replication techniques to overcome the dis
-
advantages of edge
resources, i.e. volatility, heterogeneity and limited capacities.


Peer
-
to
-
Peer (P2P) system concepts and scalable functions are being incorporated into the domain of file
systems to buil
d scalable, self
-
managing

(autonomic) and decentralized file systems and file sharing
services. Every node in the system is equivalent and in general peer
-
to
-
peer systems assume a symmetric
network of machines. Such storage systems are being used as backup

systems, as file sharing systems and
also content distribution systems.


The down side of exploiting edge storage nodes is that average reliability of these is low, either due to
unreliable networks or due to node departures. Performance offered to clien
ts may differ according to
popularity of the data item requested or the bandwidth available and finally the assumption of perfect
symmetry of peers is not realist. In all this, an important design issue is the method used for localisation of
replicas and
replica placement. As resources are distributed, an efficient mechanism is required for object
location. Distributed Hash Tables are used as a mechanism to address the location problem and is based on
hashing of content, name and other unique attributes. F
iles (and data) are placed on nodes that are close to
the result of the hashing.



Replication is a technique employed to improving availability and performance on unreliable systems.
However replication has a cost and many of the current systems proactiv
ely and automatically replicate
stored objects without considering the popularity of files, the availability of nodes current storing a copy of a
stored object. This is the case of systems such as PAST that automatically replicates files and tries to
maint
ain a constant number of replicas for every file. Replication is initiated systematically when nodes fail or
when new nodes join and selection of nodes replicating a file is done independent of criteria specific to the
file. However all files may not be eq
uivalently popular and all nodes may not have same level of availability.
Similarly selection of a node where a new replica is to be placed should take into account node behaviour
and capacity.

In the context of this thesis, the target storage system that

we consider will be composed of storage nodes of
different classes, expressed in terms of availability, robustness, capacity (storage and servicing) and cost.
This characterisation may be used in the design of replication and node selection algorithms.






PHD objectives / Expected results / Scientific challenges / Key Issues



The objective of the thesis is to propose dynamic and adaptive replica management i.e., guide replica
creation and replica placement so as to propose solutions to the followings quest
ions: (a) Optimal number of
replicas for a stored object and when replication should be triggered and (b) where to place a replica, i.e. the
best target node to host a replica of a file. These two questions are also related to decision on which files
shoul
d be replicated.



Strategies for replication decision and replication placement selection may be based on analytical models
and implemented based on measuring and predicting peer availability (leaving and returning) and data
popularity. Number of replicas

required are adjusted to maintain optimal (across the set of stored objects),
availability and performance levels.


We plan to propose
dynamic and adaptive data

placement and replication strategies on an infrastructure
composed of storage nodes of differe
nt characteristics (availability, storing and serving capacity, cost …).
While not restricted to, the scope of this system is to address storing, sharing and delivering of personal
content such as video, audio, images and personal data.


The approach could

also envisage utility and/or market
-
based control mechanisms to provide mappings
between resource distributions (storage space, network bandwidth, processing capacity for stored objects)
and the quality of service agreements. Market
-
based mechanisms could

be the basis for the autonomic
behaviour that we require on the system.




Methodological approach proposed by the supervisor




The first step is to study the state of the art of replica
tion and placement algorithms, keeping in mind
requirements of scal
ability and decentralization. While many large scale storage systems are based on using
techniques of Distributed Hash Tables (DHT), limitations of these approaches are also identified (lack of
locality, assumption of homogeneity). It will be necessary to
model the architecture before proposing new
tailored placement and replication protocols taking into account file/content properties popularity on the one
hand and node characteristics such as stability and capacity.


First ideas may be evaluated thr
ough
simulations, but then, a proof
-
of
-
concept (POC) prototype will be
evaluated on real architectures, namely, Grid’5000 and/or PlanetLab.


This approach requires a highly motivated by research PhD student who should have a good knowledge of
distributed system
s and algorithms. He should have good theoretical and implementation skills. Good
system building skills and knowledge of storage and file systems is an advantage.




Global schedule



The thesis will


o

Study the state of the art concerning data replication

in large scale systems (P2P, cluster file systems).

o

Propose an analytical framework for availability and performance driving the replication decision
strategies and propose a control model (utility, market, fairness etc) that drives replication decisions.

o

Architecture and infrastructure platform to design dynamic replica management including replica
placement policies.

o

Propose new dynamic and adaptive replication protocols taking into account data popularity, node
stability and capacities.

o

Implement a prot
otype and evaluate it on large
-
scale distributed platforms such as Grid’5000 or
PlanetLab.






Additional contributions


We are currently in the process of
submitting a collaborative project (FUI
-
10 Odisea) to design and develop a
large scale and federated s
torage system. We are also planning to submit a proposition in response to the
Call 8 of the FP7 (to be initiated in 2011). The Call 8 is expected to focus on Cloud Computing and more
particularly on data management solutions for Clouds.
Should these propo
sitions be accepted, this thesis
work will be executed within the scope of these collaborative project(s).


The thesis will be directed by Prof. Pierre Sens of Université of Pierre and Marie Curie, Paris.




Campaign 20
10

Description of the PHD


Orange Labs
Supervisor:
Marc Lacoste


Supervisor email:
marc.lacoste@orange
-
ftgroup.com


Location:
Issy
-
Les
-
Moulineaux (near Paris, France)


PHD title:

End
-
to
-
end Security Architecture and Self
-
Protection Mechanisms f
or Cloud


Computing Environments


Global context and state of the art
:


A PhD position is available in the area of cloud computing security at the Security and Trusted
Transactions (STT) department of Orange Labs near Paris, France.

The STT department
covers a wide range of research and operational activities in the areas of computer and
network security and privacy. It investigates building secure software infrastructures in
various telecommunication environments such as devices, net
work equipments, but also
services. The aim is to guarantee security of infrastructures and services provided by
Orange, and to preserve privacy of customer data to foster end user trust.


The rise of cloud computing opens a whole new future for telcos lik
e Orange. This disruptive
distributed computing model for large
-
scale networks is based on the idea of outsourcing
corporate IT infrastructures to third parties, a shared pool of computing, storage, and
networking resources and services becoming accessible

rapidly and on demand. Forecasted
benefits include flexible and dynamic resource provisioning, simpler and automated
administration of IT infrastructures, and sharing of nearly unlimited CPU, bandwidth, or
storage space thanks to resource virtualization,

with scalability improvements and massive
cost reductions in terms of infrastructure management. Several major IT players like Amazon,
Microsoft and Google are thus already proposing cloud computing solutions.


However, open systems and shared resources r
aise many security challenges, making security
one of the major barriers to adoption of cloud computing technologies [4]. In addition to
traditional threats, new issues should be addressed such as: vulnerabilities due to
virtualization of computing infrast
ructures
[1]; unclear effectiveness of traditional
network
security

in terms of authorization and placement of security controls in fully virtualized
networks;
data

isolation

and
privacy management

in multi
-
tenant environments; and above all
how to
build a
nd manage

trust between users and cloud service providers.


If traditional security techniques such as encryption remain relevant for cloud infrastructure
s,
those new threats require specific protection mechanisms. Unfortunately, few solutions are
availab
le to tackle those challenges [6][7]. Available mechanisms are highly heterogeneous
and fragmented, with
lack of an overall vision how to orchestrate them

into an integrated
security architecture for cloud environments.


Besides, the strong dependency of t
hreats on the cloud service delivery and deployment
models, the extremely short response times required to activate system defenses efficiently,
and the impossibility of manual security maintenance call for a
flexible, dynamic, and
automated security manag
ement

of cloud infrastructures, which is clearly lacking today. The
ambition of this PhD is to provide elements of answer to those unsolved issues.



Methodological approach

The objective of the PhD is twofold: (1) propose and implement an
end
-
to
-
end secu
rity
architectural blueprint

for cloud environments providing an integrated view of protection



mechanisms; and (2) define within that architecture, mechanisms enabling
self
-
protection of
the cloud infrastructure
.

To reach the first objective, a large numbe
r of studies [2] demonstrated the viability of
component
-
based designs

to build complex systems from heterogeneous building blocks and
reach flexible and yet security. That approach will be explored to orchestrate and adapt
security services in a cloud (e.
g., as Web Services) to compose flexibly inside a unified security
architecture individual security services. Security properties provided by individual security
services will be expressed as
composable contracts
, e.g., Service
-
Level Agreements (SLAs), to
derive overall security objectives guaranteed by the cloud infrastructure.

To reach the second objective, IBM’s autonomic computing approach [3] for self
-
managed
security also proved its interest to build security infrastructures with minimal security
admi
nistration overheads, which may satisfy multiple security requirements, and react rapidly
to detected threats: security parameters are autonomously negotiated with the environment to
match the ambient estimated risks and achieve an optimal level of protect
ion. A first generic
component
-
based framework for self
-
protection has been defined [5]. A first part of the PhD
work will be to study whether this framework is sufficient for self
-
management of cloud
security, or to define the necessary extensions for tha
t purpose.

PhD Objectives



Design and implement a reference security architecture for cloud environments.
Component
-
based designs will be explored to describe how to orchestrate and dynamically
compose different security building blocks like hypervisors, h
ardware security elements
(e.g., TPMs), network protections (firewalls, IDS/IPS, VPNs), and secure storage, privacy
-
enhancing, or trust management mechanisms. Each component will explicit its guaranteed
security properties using contracts, which will be co
mposed to derive the overall cloud
security objectives. This end
-
to
-
end security architecture will be validated through the
realization of a prototype of secure cloud.




Specify and implement self
-
protection mechanisms within the cloud.
The PhD
student wil
l identify the components necessary to realize one or more self
-
protection loops
to make cloud security self
-
managed. A self
-
protection architecture will also be defined.
The identified security components will then be implemented and integrated into the
p
rototype of secure cloud.

Scientific Challenges

The position offers an opportunity for innovative and collaborative research in
cloud computing
security in an industrial context. The PhD will enable to build a long
-
term vision of cloud
security, going be
yond ad hoc security solutions by handling the problem at the architectural
level to integrate current and future security mechanisms within a unified security framework.
Some of the main challenges of the PhD are the following:




Heterogeneity of security
building blocks:

must be integrated in a single security
architecture different building blocks coming

from

research areas

as diverse as operating
systems security, virtualization techniques, network security, cryptography, privacy,
security of autonomic s
ystems, and component
-
based architectures.




Realizing self
-
protection loops:

building each element of such loops is a challenge in itself.
Some key issues include security context modelling, specifying decision
-
making strategies
to modify security configur
ations, and designing adaptable security mechanisms. Above
all, making security self
-
responsive should not introduce new vulnerabilities and present
reasonable performance overheads.

Expected Results



Analysis of
existing solutions for cloud computing and a
utonomic systems security.




Proposition and specification of a component
-
based architectural blueprint for a secure
cloud infrastructure orchestrating the previous mechanisms. Definition of security



contracts specifying security properties guaranteed by in
dividual security components, and
study of their composition to derive the composite security properties at the cloud level.




Implementation of that architecture in a reference prototype of secure cloud.




Refinement of the security architecture by proposi
ng a framework to realize one or more
self
-
protection loops within the cloud.




Framework implementation within the secure cloud prototype to reach a realistic proof
-
of
-
concept of self
-
protecting cloud.




Evaluation of the security framework and prototype on

sample application scenarios.

Important Dates & Funding



Start:

October 2010 for 3 years.



Funding:

CDD Orange + CIFRE contract between Orange and Télécom Sud Paris.

Skills required

The candidate should have a strong background in one of the following areas
: computer
security; operating systems;

autonomic systems; and component
-
based architectures.

References


1. P. Barham, B. Dragovic, K. Fraser, S. Hand, T. Harris, A. Ho, R. Neugebauer, I. Pratt, and A. Warfield.
“Xen and the Art of Virtualization”.
ACM
Symposium on Operating Systems Principles (SOSP)
, 2003.


2. E. Bruneton, T. Coupaye, M. Leclerc, V. Quema, and J.B. Stefani. “An Open Component Model and its
Support in Java”.
International Symposium on Component
-
Based Software Engineering (CBSE)
, 2004.
http://fractal.objectweb.org
.


3. D. Chess, C. Palmer, and S. White. “Security in an Autonomic Computing Environment”.
IBM Systems
Journal
, 42(1):107

118, 2003.


4. Cloud Security Alliance. “Top Threats To Clo
ud Computing”. Technical Report, March 2010.
http://www.cloudsecurityalliance.org/topthreats.html
.


5. R. He, M. Lacoste, and J. Leneutre. “A Policy Management Framework for Self
-
Protect
ion of Pervasive
Systems”.
International Conference on Autonomic and Autonomous Systems (ICAS)
, 2010.


6. T. Ristenpart, E. Tromer, H. Shacham, and S. Savage. “Hey, You, Get Off of My Cloud: Exploring
Information Leakage in Third
-
Party Compute Clouds”.
ACM

Conference on Computer and Communications
Security (CCS)
, 2009.


7. J. Rutkowska, and R. Wojtczuk.
“Detecting and Preventing the Xen Hypervisor Subversions”.
BlackHat
Technical Security Conference (BLACKHAT)
, 2008.




Campagne 2010

Fiche descriptive de la th
èse


Encadrant Orange Labs:
Marc Lacoste



Adresse électronique de l'encadrant :
marc.lacoste@orange
-
ftgroup.com


Site:
Orange Labs, Issy
-
Les
-
Moulineaux


Sujet de la thèse :
Architecture de sécurité globale

et mécanismes d’auto
-
protection pour


le « cloud computing »


Contexte global de l'étude et état de l'art

L’émergence récente du «

cloud computing

» ouvre de nombreuses perspectives pour un
opérateur de télécommunications

comme Orange. Ce nouveau modèle d’architecture et de
programmation largement répartie est basé sur l’idée d’externalisation d’un système
d’information à des tiers pour fournir ressources et services à la demande et sur mesure sur le
réseau. Les bénéfices
escomptés sont nombreux: gestion flexible et dynamique de ressources
dont l’administration est simplifiée par son automatisation, mise à disposition quasi
-
illimitée de
ressources de calcul, réseau, ou de stockage grâce aux techniques de virtualisation entr
aînant
économies d’échelle et réductions importantes de coûts de gestion d’infrastructure. Plusieurs
acteurs majeurs comme Microsoft et Google proposent déjà des solutions de type «

cloud

».

Cependant, l’ouverture des systèmes et le partage des ressources
associées posent de
nombreux problèmes de sécurité, qui reste l’une des barrières majeures pour l’adoption de ces
technologies [4]. De nouveaux risques viennent se superposer aux menaces traditionnelles:
vulnérabilités introduites par la
virtualisation de
s plates
-
formes

comme les hyperviseurs

[1];
incertitudes sur la
sécurité réseau

en termes de sécurisation des accès et de placement des
contre
-
mesures dans des topologies complètement virtualisées;
isolation et la protection des
données personnelles

sur de
s plates
-
formes multi
-
tenants; et plus généralement
instauration
de la confiance

entre utilisateurs et fournisseurs de solutions «

cloud

».

Si les techniques traditionnelles de contrôle d’accès et de chiffrement restent applicables dans
le contexte du «

cl
oud

», ces nouvelles menaces requièrent des mécanismes spécifiques.
Malheureusement, peu de solutions existent aujourd’hui pour traiter ces problèmes [6][7]. De
plus, ces mécanismes sont hétérogènes et fragmentés, avec un
manque de vision d’ensemble
sur le
ur orchestration

et intégration avec des techniques protection traditionnelles au sein
d’une architecture de sécurité globale.

Par ailleurs, la forte dépendance des menaces en fonction du modèle de service et de
déploiement du «

cloud

», la réactivité né
cessaire pour déployer les contre
-
mesures, et
l’impossibilité d’une administration manuelle de la sécurité requièrent une
gestion flexible et
automatisée de la sécurité

dans ces environnements, ce qui n’est pas le cas aujourd’hui.

L’objectif de cette thès
e est d’apporter des éléments de réponse aux deux lacunes majeures
précédentes.


Approche
méthodologique


Le sujet de la thèse poursuit un objectif double. Il s’agit d’une part de proposer et mettre en
œuvre une
architecture de sécurité de bout en bout

pou
r un environnement de type


«

cloud

» fournissant une vue d’ensemble et intégrée des mécanismes de protection. Il s’agit
aussi de définir au sein de cette architecture globale de sécurité, une architecture et des
mécanismes permettant
l’auto
-
protection du
«

cloud

»
.

Pour atteindre le premier objectif, de nombreux travaux [2] ont démontré la viabilité de
l’approche à composants

pour concevoir de manière souple des systèmes complexes à partir
de briques hétérogènes, en particulier pour atteindre une sécurité

forte mais flexible en
formulant le problème comme une reconfiguration architecturale d’un ensemble de
composants de sécurité. Cette approche sera donc explorée pour réaliser la composition,



l’orchestration, et la reconfiguration de services de sécurité d
ans un «

cloud

» (par exemple
sous forme de Web Services) afin de pouvoir composer au sein d’une architecture de sécurité
globale des mécanismes élémentaires de chiffrement, de pare
-
feux, ou de tunneling. Ces
services exprimeront les propriétés de sécurité

fournies sous forme de
contrats
, par exemple
de type SLA (Service Level Agreement). L’objectif est de pouvoir garantir le respect d’un
contrat global de sécurité au niveau de l’ensemble de l’infrastructure.

Pour atteindre le deuxième objectif, l’approche

introduite par IBM de
gestion autonome de la
sécurité



autonomic computing

»)

[3] a également démontré son intérêt pour réaliser une
infrastructure où les coûts d’administration de la sécurité soient minimisés, en permettant
également de satisfaire des
besoins de sécurité multiples ainsi que de réagir très rapidement
aux menaces détectées. Dans cette approche, un système devient
auto
-
protégeable

car les
services de sécurité sont automatiquement adaptés en fonction du niveau de risque ambiant
pour fournir

une protection optimale. Des travaux récents [5] ont défini un canevas logiciel
générique à composants appelé ASPF permettant l’auto
-
protection de systèmes. Le doctorant
devra évaluer dans quelle mesure ASPF répond aux besoins d’une gestion autonome de l
a
sécurité d’un «

cloud

» et/ou proposer les extensions nécessaires pour y parvenir.

Objectifs de la thèse



Spécification et mise en oeuvre d’une architecture de sécurité de référence pour le
«

cloud

»

:

L’approche à composants sera privilégiée pour la déf
inition de l’architecture. Il
s’agira de décrire comment orchestrer et composer dynamiquement différentes briques de
sécurité comme des hyperviseurs, des éléments matériels de sécurité (par exemple de
type TPM), des contre
-
mesures réseau (pare
-
feux, IDS/IP
S, VPNs, VLANs…), des
mécanismes de stockage sécurisé et de gestion de la privacy, ou des composants
spécifiques de gestion de la confiance. Les composants devront expliciter sous forme de
contrats les garanties de sécurité fournies, qui seront composés po
ur dériver les garanties
de sécurité au niveau du «

cloud

». Cette architecture de bout en bout sera validée en
réalisant un prototype correspondant de «

cloud

» sécurisé.



Spécification et implantation de mécanismes d’auto
-
protection pour le «

cloud

»

:

L
e
doctorant devra identifier les composants nécessaires à la réalisation d’une ou plusieurs
boucles d’auto
-
protection pour gérer la sécurité d’un «

cloud

» de manière autonome. Il
pourra s’appuyer sur des travaux existants comme le canevas logiciel ASPF p
our définir
l’architecture d’auto
-
protection correspondante. Ces composants de sécurité seront
ensuite implantés et intégrés dans le prototype de «

cloud

» sécurisé.


Résultats attendus




Analyse de l’état de l’art des mécanismes de sécurité pour le «

cloud

computing

» et pour
la sécurité des systèmes autonomes.




Proposition et spécification d’une architecture de référence à composants pour un
«

cloud

»

sécurisé orchestrant les mécanismes précédents. Définition de contrats de
sécurité explicitant les propri
étés individuelles de sécurité fournies par ces composants, et
étude de leur composition pour obtenir les garanties de sécurité de niveau «

cloud

»




Implantation de cette architecture dans un prototype de «

cloud

»

sécurisé.




Spécification d’un raffinemen
t de l’architecture de sécurité permettant la mise en œuvre
d’une ou plusieurs boucles d’auto
-
protection pour un «

cloud

».




Implantation du canevas logiciel correspondant au sein du prototype de «

cloud

»

sécurisé
pour obtenir un prototype réaliste de «

cloud

»

auto
-
protégeable.




Validation de l’architecture et des prototypes obtenus sur des cas d’usage applicatifs.

Défis scientifiques




Hétérogénéité des mécanismes de sécurité pour le «

cloud

»:

il s’agit d’intégrer au sein
d’une même architecture de séc
urité des briques élémentaires provenant de domaines de
recherche très divers comme la sécurité des systèmes d’exploitation, les techniques de



virtualisation, la sécurité réseau, la cryptographie, la privacy, la sécurité des systèmes
autonomes, et les arch
itectures à composants.




Réalisation de boucles d’auto
-
protection

:

la réalisation de chaque élément de telles
boucles est un défi scientifique à part entière. On peut citer l’attentivité au contexte pour
évaluer le niveau de risque ambiant, les algorithm
es de décision permettant de modifier la
configuration des mécanismes de sécurité, ou la réalisation de services de sécurité
adaptables. Une «

question dure

» associée est la spécification des stratégies d’adaptation
de gestion de la sécurité dans ces syst
èmes. Enfin, rendre la sécurité adaptable ne devra
pas mettre en danger la sécurité elle
-
même en introduisant de nouvelles vulnérabilités, ni
présenter un impact trop important sur les performances.



Planning global du déroulement de la thèse


Première a
nnée:



Analyse de l’état de l’art: mécanismes de sécurité pour le «

cloud

», canevas logiciels pour
la sécurité autonomique, architectures à composants.



Première version d’architecture et de canevas logiciel pour un
«

cloud

»


sécurisé avec
capacités d’auto
-
protection.


Deuxième année
:



Spécification et implantation d’une architecture de sécurité de référence pour « cloud

».



Raffinement et implantation dans un prototype de «

cloud

» auto
-
protégeable.


Troisième année:



Finalisation de l’architecture et des p
rototypes.



Validation de l’architecture et des prototypes (performances, cas d’usage applicatifs…).



Rédaction du manuscrit de thèse et soutenance.



Références

1. P. Barham, B. Dragovic, K. Fraser, S. Hand, T. Harris, A. Ho, R. Neugebauer, I. Pratt, and

A. Warfield. “Xen and the Art of Virtualization”.
ACM Symposium on Operating Systems
Principles (SOSP)
, 2003.

2. E. Bruneton, T. Coupaye, M. Leclerc, V. Quema, and J.B. Stefani. “An Open Component
Model and its Support in Java”.
International Symposium
on Component
-
Based Software
Engineering (CBSE)
, 2004. Software available at
http://fractal.objectweb.org
.

3. D. Chess, C. Palmer, and S. White, “Security in an Autonomic Computing Environment”.
IBM Systems Jou
rnal,

42(1):107

118, 2003.

4. Cloud Security Alliance. “Top Threats To Cloud Computing”. Technical Report, March 2010.
Available at:
http://www.cloudsecurityalliance.org/topthreats.html

5
. R. He, M. Lacoste, and J. Leneutre. “A Policy Management Framework for Self
-
Protection of
Pervasive Systems”.
International Conference on Autonomic and Autonomous Systems (ICAS),

2010.

6. T. Ristenpart, E. Tromer, H. Shacham, and S. Savage. “Hey, You, G
et Off of My Cloud:
Exploring Information Leakage in Third
-
Party Compute Clouds”.
ACM Conference on Computer
and Communications Security (CCS)
, 2009.

7. J. Rutkowska, and R. Wojtczuk.
“Detecting and Preventing the Xen Hypervisor Subversions”.
BlackHat Tech
nical Security Conference (BLACKHAT)
, 2008.




Campagne 2010

Fiche descriptive de la thèse



Encadrant Orange Labs:
Chidung Lac


Adresse électronique de l'encadrant:
chidung.lac@orange
-
ftgroup.com


Site:

Lannion


Sujet de la thèse:

Résilience des services


d
étection, réaction et reprise



Contexte global de l'étude et état de l'art


La société dépend de plus en plus de nos jours des réseaux de communication en général et de l'Internet en
particulier, pour une grande partie des actes de la vie quotidienne. Les

consommateurs utilisent le "réseau
des réseaux" pour accéder à l'information, obtenir des produits et services, gérer leurs comptes financiers, et
communiquer avec d'autres. Les entreprises exploitent Internet pour un usage interne, ou pour effectuer des
transactions avec les consommateurs et d'autres entreprises.
Les Etats s'appuient sur l'Internet pour la
gestion des affaires au niveau gouvernemental, pour la fourniture de services à leurs citoyens, et, dans une
certaine mesure, pour le management de la
sécurité intérieure, et le traitement des opérations militaires.


Due à cette dépendance croissante, les effets d'une interruption (conséquente) de service de ce grand
réseau peuvent devenir catastrophiques. La vie personnelle et professionnelle des indiv
idus, la viabilité
économique des entreprises et des organisations, et la sécurité des nations sont directement liées à la
résilience, la survivabilité, et la sûreté de fonctionnement de l'Internet mondial. Paradoxalement, cette
dépendance accrue dans les
services rend l'Internet encore plus vulnérable aux problèmes. L'Internet mobile
est sensible aux risques liés aux variations temporelles, à la faible connectivité des canaux de
communication, et aux délais de transmission imprévisibles. L'Internet en géné
ral est une cible attrayante
pour les pirates informatiques, les veilleurs (technologiques) de l'espionnage industriel, les terroristes, et les
acteurs de la guerre de l'information. Dans le même temps, il est reconnu que l'Internet repose en grande
partie

sur des mesures de protection et des correctifs isolés, plutôt que sur une approche systémique
cohérente, pour faire face à ces défis.


Un des moyens de combler cette lacune est d'intégrer systématiquement la résilience dans l'Internet de
demain. Le proje
t ResumeNet, par exemple, propose une approche couvrant 3 dimensions.

(i)
Le cadre méthodologique est basé sur une stratégie dite
D2R2+DR

(Défense, Détection, Réaction,
Reprise, suivi de Diagnostic et Amélioration


"Refinement") qui inclut la quantificat
ion de l'impact des
différents types de menaces et défaillances sur les services opérationnels; les métriques, les classes de
résilience des réseaux, ainsi que les politiques et leur négociation.

(ii) Des mécanismes et des algorithmes sont à rajouter aux m
atériels/logiciels de réseau afin de satisfaire
aux exigences définies plus haut; ceci s'applique à la fois à l'infrastructure de transport de bout en bout et à
la couche de service, y compris les serveurs et les équipements de stockage de données.

(iii) D
es expérimentations à l'aide de scénarios spécifiques permettent de démontrer l'applicabilité
de
l'approche systémique proposée.



Objectifs de la thèse/ Résultats attendus/ Défis scientifiques/techniques à relever/
Approche
méthodologique

proposée par le
responsable technique


Ce sujet de Thèse, orienté vers l'obtention de services résilients, vise plus particulièrement les phases de
détection, de réaction et de reprise de la stratégie D2R2+DR décrite plus haut. La surveillance lors du
fonctionnement du se
rvice est le point de départ de l'approche, qui est suivie par la détection d'événements
anormaux qu'il s'agit d'analyser. Des mécanismes d'analyse tels que la reconnaissance de chroniques
pourront être judicieusement utilisés pour déclencher les alertes.
Grâce à des politiques de sécurité
dynamiques définies au préalable et déroulées en temps réel selon le contexte environnemental, une
réaction est déclenchée afin de contrer la menace identifiée. L'objectif de cette réaction est de minimiser les
atteintes
à la QoS (disponibilité, …), tout en gardant intacte l'intégrité et la sécurité du service étudié. La



reprise consistera enfin à détecter la fin de l'alerte, et à remettre en fonctionnement les ressources
(matérielles, logicielles, …) qu'il a fallu rendre
indisponibles durant la phase de menace.


Les mécanismes proposés durant ces travaux contribueront aux résultats du projet ResumeNet, tout comme
les propositions des autres partenaires de ce projet seront intégrées, s'il y a lieu, aux techniques de
résilie
nce à déployer pour assurer la robustesse des services. Enfin, une expérimentation sera mise en
place afin d'illustrer la faisabilité de la démarche (voir plus bas).



Planning global du déroulement de la thèse


Les grandes lignes du travail sont les suiv
antes, sachant qu'un état de l'Art sera effectué au démarrage de
chacune de ces étapes:

-

spécification des exigences en terme de résilience (haute disponibilité, confidentialité des données, …)
pour un environnement de service résilient

-

définition des p
olitiques de sûreté de fonctionnement
-
sécurité et mécanismes de mise en oeuvre

-

étude des phases de détection/réaction/reprise, i.e.,
approches pour surveiller les services de
communication, techniques de détection durant le fonctionnement d'un service, a
nalyse/décision/réaction
face à des alertes,
mise en œuvre des mesures de réaction et de reprise

-

évaluation opérationnelle de l'efficacité des mécanismes proposés.


L'expérimentation visant à démontrer l'applicabilité des points cités précédemment sera b
asée sur la plate
-
forme ICOM, un projet du Pôle de Compétitivité "Industries du Commerce" dans lequel Orange Labs Sophia
-
Antipolis a proposé une infrastructure reposant sur le modèle PubSub. Cette plate
-
forme permet à des
données en provenance de lecteurs
de code
-
barres ou d'étiquettes RFID
1

d'être exploitées à la fois par le
système d'information de l'entreprise, et par les partenaires extérieurs à celle
-
ci.



Contributions secondaires


Ce sujet de thèse fait partie intégrante des travaux du projet collabo
ratif européen ResumeNet
(
http://www.resumenet.eu/
), un STREP
2

du 7
ème

Programme Cadre R&D de la Commission Européenne. Ce
projet regroupe 9 partenaires:
ETH Zürich
3

(CH), FT (F),
NEC (A), U. Technique de Delft (NL)
, U. de
Lancaster (GB), U. de Liège (B),
U. Technique de Munich (A),
-

U. de Passau (A), U. d'Uppsala (S).


L'objectif de ResumeNet est de proposer des mécanismes, fonctionnant à la fois au niveau de la couche
réseau et de la couche services, permettant à
l'Internet de demain d'être résilient, de les implémenter et de
démontrer leur applicabilité à travers quatre expérimentations: réseaux maillés sans fil, réseaux
opportunistes, réseaux SIP, environnements intelligents.























1


Radio Frequency IDentification

2


Strategic

Targeted Research Project

3


responsable du projet






Campaign 20
10

D
escription of the PHD


Orange Labs Supervisor
: Eric Hardouin


Supervisor email
:
e
ric.hardouin@orange
-
ftgroup.com)


Location: Issy les Moulineaux (Paris area)




PHD title: A
dvanced inter
-
cell interference mitigation for 4G networks




Global context and
state of the art



Coordinated Multipoint (CoMP) is one of the techniques identified as key to alleviate inter
-
cell interference in
4G mobile networks. In March 2010, 3GPP decided to postpone the inclusion of CoMP in LTE
-
Advanced
beyond Release 10, because

the technology was judged not to be mature enough yet. The main problem is
the sensitivity of the current algorithms to

the practical channel impairments (e.g. channel estimation errors,
feedback delay). Therefore, one objective of the thesis is to propos
e realistic CoMP schemes that achieve
gains in the real network.



On the other hand, it is likely that even efficient CoMP schemes will not be able to suppress all the inter
-
cell
interference. An alternative

promising approach to interference reduction ha
s been recently identified: the
mixed approach combines interference reduction via transmitter processing (typically CoMP) with
interference processing at the receiver. However, enabling efficient inter
-
cell interference processing at the
receiver implies
constraining the scheduler. Several problematics are associated with this approach, which
are not

well understood at the moment. For instance, is it better to take advantage of the frequency
-
scheduling gains provided by unconstrained scheduling, or to redu
ce the scheduling gains but reduce the
interference? A second objective of the thesis is to evaluate the feasibility and associated gains of the mixed
approach.



At last a breakthrough technique called interference alignment has appeared recently in the l
itterature. This
technique implies processing the signal at several transmitters so that the interference it creates

at one
receiver

lies in a single signal dimension (e.g. the Q branch)

and can thus be easily suppressed at the
receiver. Although the feasi
bility of this approach has been demonstrated in theory, no practical scheme has
been identified so far.
A third objective of the thesis is to investigate the interference alignment concept and
propose practical schemes relying on it.




PHD objectives / E
xpected results / Scientific challenges / Key Issues


As explained above, the objectives of the thesis are to investigate interference reduction techniques,
according to the following research axes:



Design realistic CoMP schemes that deliver effective gain
s in the real network, taking into account
practical impairments.



Investigate the feasibility and gains of the mixed approach.



Explore the interference alignment concept and propose practical schemes relying on it.


All these problematics constitute open a
nd challenging research topics at the moment. The thesis will focus
exclusively on the downlink (transmission from the base station to the mobile terminal).







Methodological approach proposed by the supervisor


The candidate shall be highly motivated by

research in an industrial context, and have a solid background on
digital communications, signal processing and information theory. In addition, due to the foreseen
participation in a European collaborative project, the candidate will need to have an exce
llent level in written
and spoken English. The additional necessary knowledge include Matlab and C/C++.


The thesis environment will be 4G systems, in particular the 3GPP LTE
-
Advanced. The following
knowledge
components will thus need to be acquired: MIMO,

OFDMA, scheduling, receiver processing, system
-
level
simulations. Then, the candidate will need to get familiar with the state of the art in CoMP, both from the
academic literature as well as contributions submitted to 3GPP. This will be able to be perfor
med first via a
bibliographic study as well as initial simulations via a simplified Matlab system
-
level simulator already
available. Then practical CoMP schemes will be studied, in particular with respect to robustness to channel
estimation errors and limi
ted feedback.


In a second phase of the thesis, a state of the art about advanced receiver techniques for MIMO OFDM will
be performed, together with a review of the ongoing investigations on the mixed approach within the ARTIST
4G project. Practical strate
gies for combinations of advanced receiver techniques with CoMP will be
identified and evaluated, including scheduling constraints.


The last phase of the thesis will be devoted to the study of the concept of interference alignment in the
context of the mi
xed approach. It will start with a familiarization with the theoretical concepts of interference
alignment. Then practical schemes relying on interference alignment will be investigated. This last phase
may actually be combined with the second one.




Glob
al schedule




[T0,
T0+ 6 months]: familiarization with the context of the thesis: LTE
-
Advanced, MIMO, OFDMA,
scheduling, receiver processing, system
-
level simulations, state of the art in CoMP.



[T0+ 6 , T0 + 12]: investigation of practical CoMP schemes



[T0
+12, T0+24]: investigation on the mixed approach



[T0+24, T0+30]: exploration of the interference alignment concept



[T0+30, T0+36]: writing of the report, defense.




Additional contributions


Participation
in the European Commission collaborative project

FP7 ARTIST 4G.










Etude des techniques de transport de données par commutation de rafales optiques (optical burst switching :
OBS) sans résolution spectrale de la contention p
our les réseaux de transport optique
s : architectures,
modèles, simulations et expérimentations



Méthodes d’interactions tangibles avec des contenus géolocalisés dans un contexte de mobilité.




Développement d’une méthode de diagnostic technique des dégradations de qualité vocale perçue des
communications téléphoniques à partir d’une analyse du signal de parole




PHD title: Ensuring Quality of Service fo
r Content delivery in Information Centric Networks




Sujet de la thèse (Titre): Analyse automatique, classification et traitement des signaux audio



Sujet de la thèse : Connectivité conte
xtuelle dans les architectures multi
-
accès du futur


Sujet de la thèse (Titre): Mobilité dynamique dans les architectures de réseau du futur


Sujet de la thèse (Titre): Contextualisation

des services de communication interpersonnelle en entreprise

Sujet de la thèse (Titre): Codes correcteurs d’effacements et accès opportuniste au spectre


Development of a technical d
iagnostic method for voice quality impairments perceived in telephone
communications, based on an analysis of speech signal.


Codage multi
-
vues plus profondeur (MVD) avancé pour la TV
-
3D et le FTV.


Exploitation de données massives pour le développement de services de communication sensibles au
contexte.


Exploiting massive data to develop context
-
aware communication services


Sujet de la thèse (Titre): Etude et implémentation d'une architecture de décodage générique et flexible pour
codes correcteurs d’erreurs avancés.


PHD title: Adaptive replica man
agement in federated cloud storage systems



PHD title: End
-
to
-
end Security Architecture and Self
-
Protection Mechanisms for Cloud


Sujet de la thèse : Architecture de sécurité globale e
t mécanismes d’auto
-
protection pour



Sujet de la thèse: Résilience des services


détection, réaction et reprise

Advanced inter
-
cell interference mitigation for 4G networks