Séminaires du LITA
16 Juin 2016 à 14h00
Salle de Réunion du LITA, E 215, Batiment UFR MIM, Campus Ile du Saulcy, Metz
"Difference-of-Convex Statistical Learning: Optimality Analysis and Computational Comparisons"
We study a fundamental bi-criteria optimization problem for variable selection in statistical learning;
the two criteria are a loss/residual function and a model control/regularization. The former function measures the fitness of the learning model to data and the latter function is employed as a control of the complexity of the model. We focus on the case where the loss function is convex and the model control function is a difference-of-convex (dc) sparsity measure.
From the perspective of optimality theory, we study the question of when a d(irectional)-stationary solution of the non-convex optimization problem has some kind of global optimality properties; from the perspective of computational performance, we compare the numerical results of sparse linear regression using several dc sparsity functions. The study is applicable to both exact and surrogate sparsity functions.
This is ongoing joint work with Miju Ahn (University of Southern California) and Jack Xin (University of California at Irvine).
* * *
10 Mars 2016 à 14h00
Salle de Réunion du LITA, UFR MIM
"On Temporal Graph Exploration".
par
Frank KAMMER
Universität Augsburg, Allemagne
A temporal graph is a graph in which the edge set can change from step to step. The temporal graph exploration problem TEMP is the problem of computing a foremost exploration schedule for a temporal graph, i.e., a temporal walk that starts at a given start node, visits all nodes of the graph, and has the smallest arrival time. We consider only temporal graphs that are connected at each step. For such temporal graphs with n nodes, we show that it is NP-hard to approximate TEMP with ratio O(n{1-epsilon}) for any epsilon>0. We also provide an explicit construction of temporal graphs that require Theta(n2) steps to be explored. We then consider TEMP under the assumption that the underlying graph (i.e. the graph that contains all edges that are present in the temporal graph in at least one step) belongs to a specific class of graphs. We show that temporal graphs can be explored in O(n.log3n) steps if the underlying graph is a (2 x n) grid.
* * *
8 Mars 2016 à 9h00
Salle de Réunion du LITA, UFR MIM
"Space-Efficient Basic Graph Algorithms".
par
Frank KAMMER
Universität Augsburg, Allemagne
We call an algorithm space-efficient if it matches the running times of standard algorithms or come close to it, but uses less space. The talk gives an overview of known space-efficient basic graph algorithms in a setting where an n-vertex input graph is read-only and the computation must take place in a working memory of O(n) bits or little more than that. We then shortly discuss the importance of graph representations in the context of space-efficient algorithms. We conclude the talk with the presentation of three algorithms for depth-first search that demonstrate some useful tricks to obtain further space-efficient algorithms.
* * *
13 Octobre 2015 à 14h15
Salle de Réunion du LITA, UFR MIM
"Reducing Complexity in Data via Mathematical Optimization".
par
Prof. Emilio Carrizo
Instituto de Matematicas de la Universidad de Sevilla, Spain.
Withthe aim of enhancing visualization of data sets, i.e., to make them
easy to interpret, a powerful tool is to reduce the complexity of the
data set by reducing its dimensionality in an interpretable manner, or
to transform the data so that interpretability is enhanced. This is
frequently done by solving a Mathematical Optimization problem, which
may be far from trivial, but tractable.
In this talk we will present two examples of such complexity reduction
strategy. First, we will address a Principal Component Analysis model
with sparsity in their components, so that loadings have a clearer
interpretation. Then we will address a classification model (Support
Vector Machine) for data involving categorical variables, to be grouped
in such a way that the weights in the score function are easier to
interpret. Our numerical results will show that the use of Mathematical
Optimization-based approaches may lead to results outperforming the
state of the art.
* * *
02 Juillet 2015 à 14 heures
Salle de Réunion du LITA, UFR MIM
"Tiling rank matrices and its applications ".
par
LE Van Thanh
University of Leuven
In
this talk, we will discuss two new data mining problems, namely, ranked tiling and rank matrix factorisation, which we introduce to mine a set of interesting patterns in rank matrices. In this type of matrix, each row defines a complete/partial ranking of the columns. Rank matrix occurs naturally in applications like sports or other competitions. It is also a useful abstraction when dealing with numeric data in which the rows are incomparable.
Ranked tiling studies the problem of finding areas called ranked tiles that have high average rank scores. Each ranked tile is defined by a set of rows and a set of columns. Mining such ranked tiles is useful as they reveal prominent local relations between sets of rows and columns. In contrast, rank matrix factorisation considers the problem of decomposing a rank matrix into a product of two smaller matrices, one of which contains k partial rankings of columns. That decomposition summaries the original matrix in a succinct way. In each case, I will show how we can formalise and solve the data mining problem using optimisation principles.
We will also discuss how to use the mined patterns to find biomarkers of patient subtypes, which is an important problem in the area of personalised medicine.
* * *
04 Juin 2015 à 14 heures
Salle de Réunion du LITA, UFR MIM
"Detection and Correction of Image Distortions from FIB-SEM Tomograms of Biological Samples".
par
Thai V. Hoang
Institut de Génétique et de Biologie Moléculare et Cellulaire (IGBMC), Strasbourg
FIB-SEM imaging combines scanning electron microscope (SEM) visualization with focused ion beam (FIB) milling and is becoming the method of choice to elucidate the 3D organization of the cellular architecture. However, this new technology has some inherent limitations due to the milling and scanning processes that may cause defects in the obtained image stacks. The first type of defects are curtaining effects which appear as vertical ripples from top to bottom of the SEM image. The second type appears in SEM images as horizontal irregular strips with inhomogeneous change in intensity values when compared to the preceding image in the stack. A third defect is revealed by an image deformation which results from specimen drifting during SEM image acquisition. In this talk, I will present our solutions to correct these defects by using Fourier analysis and correlation-based local deformation estimation to improve the visual quality of FIB-SEM data and to facilitate the segmentation of organelles and the subsequent extraction of quantitative information. The efficiency of the proposed correction solutions for FIB-SEM images of biological samples is demonstrated through a number of experiments.
* * *
26 Mars 2015 à 14 heures
Salle de Réunion du LITA, UFR MIM
"Subexponential algorithms for Intervalizing k-colored graphs".
par
Hans Bodlaender
Utrecht University / Eindhoven University of Technology (Pays bas)
In this talk, we consider exact algorithms for the following problem: determine for a graph G, given with a proper vertex color, whether it is a subgraph of a properly colored interval graph, i.e., we must turn G into an interval graph by adding edges between vertices with different colors. The problem is known to be NP-complete for the case of four colors. In this talk, we show that for any fixed number of colors the problem can be solved in 2^O(n/log n) time, and give a matching lower bound assuming the Exponential Time Hypothesis for any fixed number of colors >= 6.
* * *
18 Décembre 2014 à 14 heures
Amphi Hermite, UFR MIM
"Algorithmes Exacts et Exponentiels pour les Problèmes
NP-difficiles sur les Graphes et Hypergraphes".
par
Manfred Cochefert
Université de Lorraine
* * *
13 Novembre 2013 à 14 heures
Salle de réunion du LITA, UFR MIM
Toward Large-scale Human Behavior Analysis
Enabling computers to understand human behavior has the potential to revolutionize many areas that benefit society such as clinical diagnosis, human-computer interaction, and social robotics. Critical to the understanding of human behavior or any temporally-varying phenomenon in general is the ability to segment, classify, and cluster time series data.
In the first part of this talk, I will present Segment-based Support Vector Machines (Seg-SVMs), a framework for supervised, weakly-supervised, and unsupervised time series analysis. Seg-SVMs
outperform state-of-the-art approaches by combining three powerful ideas: energy-based structure prediction, bag-of-words representation, and maximum-margin learning. I will provide an overview of Seg-SVMs and demonstrate their benefits for one particular problem: early event detection.
In the second part of this talk, I will describe an algorithm to harness the power of big data for large-scale human behavior analysis. In particular, I will present Instance Ranking SVM (IRSVM), a novel Multiple Instance Learning (MIL) formulation for learning from data with little annotation. IRSVM outperforms existing MIL algorithms by embracing the correlation of data instances and anticipating the deficiency of the instance classifier.
Bio.Minh Hoai is a research fellow at Oxford University. He obtained Ph.D from Carnegie Mellon University in 2012 and B.E. from The University of New South Wales in 2005. He is the recipient of the CVPR2012 Best Student Paper Award. He was a member of the mathematical Olympiad team representing Vietnam in the 41st International Mathematical Olympiad, where he won a Gold Medal
* * *
2 Octobre 2013 à 14 heures
Salle de réunion du LITA, UFR MIM
Une étude comparative entre l'Apprentissage par Renforcement Inverse (ARI) et l'Apprentissage par Imitation (AI)
par
Bilal Piot
SUPELEC
Cet exposé propose une étude comparative entre l'Apprentissage par Renforcement Inverse (ARI) et l'Apprentissage par Imitation (AI).
L'ARI et l'AI sont deux cadres de travail qui utilisent le concept de Processus Décisionnel de Markov (PDM) et dans lesquels nous cherchons à résoudre le problème d'Apprentissage par Démonstrations (AD). L'AD est un problème où un agent appelé apprenti cherche à apprendre à partir de l'observation des démonstrations d'un autre agent appelé expert.
Dans le cadre de travail de l'AI, l'apprenti essaie d'apprendre directement la politique de l'expert alors que dans le cadre de l'ARI, l'apprenti essaie d'apprendre la récompense qui explique la politique de
l'expert. Cette récompense est ensuite optimisée pour imiter l'expert.
On peut donc légitimement se demander s'il y a un intérêt à estimer une récompense qui devra ensuite être optimisée ou si l'estimation d'une politique est suffisante. Cette question assez naturelle n'a pas encore été réellement traitée dans la littérature pour l'instant. Ici, des réponses partielles à la fois d'un point de vue théorique et pratique sont produites.
* * *
This talk provides a comparative study between Inverse
Reinforcement Learning (IRL) and Apprenticeship Learning (AL).
IRL and AL are two frameworks, using Markov Decision Processes (MDP), which are used for the imitation learning problem where an agent tries to learn from demonstrations of an expert.
In the AL framework, the agent tries to learn the expert policy whereas in the IRL framework, the agent tries to learn a reward which can explain the behavior of the expert. This reward is then optimized to imitate the expert.
One can wonder if it is worth estimating such a reward, or if estimating a policy is sufficient. This quite natural question has not really been addressed
in the literature right now. We provide partial answers, both from a
theoretical and empirical point of view.
* * *
22 Septembre 2013 à 14 heures
Salle de réunion du LITA, UFR MIM
Visualizing Community Genomic Data
par
Nikos Vlassis
Luxembourg Centre for Systems Biomedicine
University of Luxembourg
Clustering and visualizing community genomic sequence data (aka metagenomic data) is a challenging problem in computational biology. We have recently developed an approach that is based on nonlinear dimension reduction of composition-based genomic features via a variant of Stochastic Neighbourhood Embedding. The latter casts the problem of data visualization as a non-convex optimization problem, and a challenging problem is the development of efficient solvers. In this talk I will give a general introduction to the problem and discuss possibilities to model it as a DC program.
* * *
22 Septembre 2013 à 10 heures
Salle de réunion du LITA, UFR MIM
An Unified Framework of Machine Learning via Mixed 0-1 Linear Programming and Applications
par
Dr. Hai Nguye
INRIA Lille-Nord
This research presents a significant improvement of machine learning algorithms by reformulating them as
discrete optimization problems and by unifying them into a framework. In fact, we study (i) a class of feature (parameter) selection methods, e.g. correlation-based and mutual information-based feature
(parameter) selection, (ii) supervised learning algorithms, e.g. Lp-norm support vector machines and (iii) un-supervised learning algorithms, e.g. K-means clustering algorithm. We prove that these
algorithms can be casted into a mixed 0-1 linear programming problem (M01LP), in which the number of variables and constraints are linear in the number of input parameters. The obtained M01LP is solved by
means of branch and bound algorithm. The new formulation of machine learning algorithms allows to (1) realize the same representation of many different algorithms, (2) easily combine these algorithm to study
their reliability including their generalization and robustness, (3) optimize the parameter selection process and learning model selection process.
Our theoretical findings are supported by a number of experiments on real-world datasets from the field of information security and digital forensics. The experimental results show that our new proposed
approaches (5) decreased the computational efforts due to optimal learning algorithms and optimal parameter selection, (6) increased the reliability including the generalization and robustness and (7)
increased the efficiency and effectiveness of network-based intrusion detection systems, host-based intrusion detection systems, web attack detection systems, botnet malware detection systems and malicious PDF file detection.
* * *
27 Juin 2013 à 14 heures
Salle de réunion du LITA, UFR MIM
A general family of third order methods for finding multiple roots
par
Abdelhafid Serghini
University Mohammed I, ESTO, Laboratory MATSI,
Oujda, Morocco.
Newton's method is one of the fundamental tools in numerical analysis, operations research, optimization and control. It has numerous applications in management science, industrial and financial research, data mining. Newton's method is a method for finding successively better approximations to the roots (or zeroes) of a real or complex function.
The Newton's method in one variable has a second order of convergence.
In recent years, some cubically convergent modified Newton's methods for multiple roots have been proposed and analyzed. These methods can be collected into two classes. The first one is based on the second derivative of the function f. The second one is based on the function f and its derivative f0.
In this work, we are interested in the second class. We describe a general family of iterative methods, which use exactly two values of f and one value of f0 at each iteration, for approximating a multiple root z with multiplicity m of a complex valued function. Almost all the families of methods existing in the literature are particular cases of this general method. We give some su±cient conditions that guarantee a
third order of convergence and we discuss how to choose a small asymptotic error constant which may a®ect the convergence speed. Using Mathematica with its higher precision computation, we present some numerical examples to illustrate the theoretical results.
* * *
13 Juin 2013 à 14 heures
Salle de réunion du LITA, UFR MIM
On optimality and duality for robust multiobjective optimization problems
par
S. K. Mishra Yogendra Pandey
Department of Mathematics
Banaras Hindu University
Varanasi, India
We consider a multiobjective optimization problem with face of data uncertanity and its robust counterpart.
We establish the sufficient optimality condition for a robust efficient solution and a weakly robust efficient solution of the uncertain multiobjective optimization problem under the assumption that the objective functions are convex and the inequality constraints are generalized convex.
We formulate Mond-Weir type dual for the uncertain multiobjective optimization problem and establish weak and strong duality theorems.
Keywords : Uncertain multiobjective optimization, Robust multiobjective optimization, Sufficient optimality condition, Robust duality
* * *
10 Avril 2013 à 14 heures
Salle de réunion du LITA, UFR MIM
Speeding up algorithms on tree decompositions with algebraic methods
par
Hans L. Bodlaender
Utrecht University
It is well known that many graph problems can be solved in linear time for graphs of bounded treewidth with help of dynamic programming on the tree decomposition.
The running time of such algorithms is typically at least exponential in the treewidth, but for many problems, only algorithms that are superexponential are known. In this talk,
a new method is discussed to obtain faster algorithms on tree decompositions. Central ideas are "group dominance" to sparsify tables in a dynamic programming algorithm,
a way to establish such group dominance by showing that certain matrices have small rank, and an explicit small size basis for these matrices.
The technique will be explained in an informal way at the hand of one central example: the Steiner Tree problem. Recent experimental work that shows that the technique gives significant speedups will also be discussed.
This is joint work with Marek Cygan, Stefan Fafiani, Stefan Kratsch, and Jesper Nederlof.
* * *
20 décembre 2012 à 14 heures
Salle de réunion du LITA, UFR MIM
Classifying Very-High-Dimensional Data with Random Forests of Oblique Decision Trees (RF-ODT) *
par
Thanh-Nghi Do
Institut Telecom; Telecom Bretagne
UMR CNRS 3192 Lab-STICC
Université européenne de Bretagne, France
L'algorithme des forêts aléatoires proposé par Breiman permet d'obtenir de bons résultats
en fouille de données comparativement à de nombreuses approches. Cependant, en n'utilisant qu'un seul attribut parmi un sous-ensemble d'attributs tiré aléatoirement pour séparer les individus à
chaque niveau de l'arbre, cet algorithme perd de l'information. Ceci est particulièrement pénalisant avec les ensembles de données en grandes dimensions où il peut exister de nombreuses
dépendances entre attributs. Nous présentons un nouvel algorithme de forêts aléatoires d'arbres obliques obtenus par des séparateurs à vaste marge (SVM). La comparaison des performances de
notre algorithme avec celles de l'algorithme de forêts aléatoires des arbres de décision C4.5 et de l'algorithme SVM montre un avantage significatif de notre proposition.
The random forests method is one of the most successful ensemble methods. However,
random forests do not have high performance when dealing with very-high-dimensional data in presence of dependencies.
In this case one can expect that there exist many combinations between the variables and unfortunately the usual random forests method does not effectively exploit this
situation. We here investigate a new approach for supervised classification with a huge number of numerical attributes. We propose a random oblique decision trees method.
It consists of randomly choosing a subset of predictive attributes and it uses SVM as a split function of these attributes.
We compare, on 25 datasets, the effectiveness with classical measures (e.g. precision, recall, F1-measure and accuracy) of random forests of random oblique decision trees with SVMs and random
forests of C4.5. Our proposal has significant better performance on very-high-dimensional datasets with slightly better results on lower dimensional datasets.
Keywords: High Dimensional Data, Random Forests, Oblique Decision Trees, Support Vector Machines.
* * *
24 Mai 2012 à 14 heures
Salle E203, UFR MIM
Linear Programming with Linear Complementarity Constraints
par
Prof Joaquim JUDICE
University of Coimbre, Portugal
Linear Programming with Linear Complementarity Constraints (LPLCC) is an area of active research in Optimization, due to its many applications, algorithms, and theoretical existence results. In this paper, a number of formulations for important nonconvex optimization problems are first reviewed. The most relevant algorithms for computing a complementary feasible solution, a stationary point, and a global minimum for the LPLCC are also surveyed, together with some comments about their efficiency and efficacy in practice.
* * *
10 Mai 2012 à 14 heures
Salle E203 - UFR MIM
Les métaheuristiques et leur adaptation pour l'optimisation continue
par
Patrick SIARRY
Université de Paris 12
La plupart des métaheuristiques ont été conçues, à l'origine, pour la résolution des problèmes d' « optimisation difficile » de nature discrète. Cependant, les ingénieurs sont souvent confrontés à des problèmes d'optimisation à variables continues : amélioration des performances d'un circuit électronique, identification des paramètres d'un modèle de gisement d'hydrocarbures, apprentissage d'un réseau de neurones ou d'une base de règles floues.
De tels problèmes peuvent être également « difficiles », dans un sens différent de celui consacré par la théorie de la complexité : fonction objectif non connue analytiquement ou bruitée, variables corrélées ou évoluant dans des gammes disparates, présence de non-linéarités, etc...
Les métaheuristiques offrent, dans ce cadre, un avantage précieux : elles n'exploitent pas les gradients de la fonction objectif. Ces techniques doivent cependant être adaptées au cas continu ; nous décrirons dans cet exposé quelques approches pour quatre métaheuristiques : le recuit simulé, la recherche tabou, les algorithmes génétiques et les algorithmes de colonies de fourmis. Nous esquisserons enfin le portrait d'un nouveau-né de la famille des métaheuristiques : la méthode des essaims particulaires, qui a été - quant à elle - conçue d'emblée dans le cas continu.
* * *
02 Février 2012 à 14 heures
Salle Ip1, UFR-MIM
Direct Multisearch For Multiobjective Optimization
par
Ismael F. Vaz
University of Minho, Portugal
In practical applications of optimization it is common to have several conflicting objective functions to optimize. Frequently, these functions are subject to noise or can be of black-box type, preventing the use of derivative-based techniques.
We propose a novel multiobjective derivative-free methodology, calling it direct multisearch (DMS), which does not aggregate any of the objective functions. Our framework is inspired by the search/poll paradigm of direct-search methods of directional type and uses the concept of Pareto dominance to maintain a list of nondominated points (from which the new iterates or poll centers are chosen).
The aim of our method is to generate as many points in the Pareto front as possible from the polling procedure itself, while keeping the whole framework general enough to accommodate other disseminating strategies, in particular when using the (here also) optional search step.
DMS generalizes to multiobjective optimization (MOO) all direct-search methods of directional type.
We prove under the common assumptions used in direct search for single objective optimization that at least one limit point of the sequence of iterates generated by DMS lies in (a stationary form of) the Pareto front. However, extensive computational experience has shown that our methodology has an impressive capability of generating the whole Pareto front, even without using a search step.
This is joint work with: A.L. Custódio, J.F.A. Madeira and Luis Nunes Vicente.
* * *
08 Décembre 2011 à 14 heures
E303, UFR-MIM
Sequential Coloring with Trichromatic Exchange
par
Hacène AIT HADDADENE
Operations Research Department, Mathematics Faculty, USTHB University
In this communication, we present a survey on the application of sequential colouring with trichromatic exchange technique, give some conjectures based on this technique and specify the results of some related concepts.
Mots-clés : Sequential coloring; Perfect Graph; Polynomial Algorithm; Maximum clique number; Conjectures.
* * *
10 novembre 2011 à 14 heures
E203, UFR-MIM
On the b-coloring problem
par
Flavia Bonomo
Université de Buenos Aires, Argentine
A b-coloring
of a graph is a coloring such that every color class admits a vertex adjacent
to at least one vertex receiving each of the colors not assigned to it.
The b-chromatic number of a graph G is the maximum number t such that G
admits a b-coloring with t colors.Several problems related to b-coloring
of graphs have been introduced in the literature. Recently, the theory
of b-colorings of graphs has been applied in to some clustering problems
in data mining processes. In this talk, we will summarize the last algorithmic
and theoretical results obtained on b-coloring and the related notions
of b-perfection, b-continuity and b-monotonicity within some graph classes.
This is
a mix of joint works with C. Betancur, G. Duran, I. Koch, F. Maffray, J.
Marenco and M. Valencia-Pabon.
* * *
7 juillet 2011 à 14 heures 0
E203, UFM-MIM
On the Permuted Perceptron Problem - A New Formulation and Approach
par
Tiru S. Arthanari
University of Auckland Business School, Nouvelle-Zélande
The permuted
perceptron problem (PPP) has received renewed interest due to its application
in Cryptanalysis. Simulated annealing and other hybrid meta-heuristics
are applied to attack
this problem. Difference of convex functions approach is also combined
with simulated
annealing to solve problem instances of PPP.
In this
talk after a brief review of the state of art of PPP approaches a new model
for
approaching the PPP will be introduced. This is a parametric minimum cost
bipartite flow
formulation with special cost structure. We have not worked on the computational
efficiency
of this approach, but highlight why this approach might yield better results.
* * *
23 juin 2011 à 11 heures 30
D206, UFM-MIM
Pre-invex and related Functions
par
Professor S. K. Mishra
Department of Mathematics, Banaras Hindu University Varanasi, India
In this
talk, pre-invex functions and some of its generalizations are introduced.
Some properties of pre-invex and related functions will be discussed as
well.
* * *
23 juin 2011 à 10 heures 30
D206, UFM-MIM
DC Programming and DCA for solving DC Programs with DC constraints (joint
work with Le Thi Hoai An and Huynh Van Ngai)
par
Professor Pham Dinh Tao
Laboratoire de Mathématiques, INSA de Rouen
DC (Difference
of Convex functions) Programming and DCA(DC Algorithms) which
constitue the backbone of Nonconvex Programming and Global Optimization
were introduced
by Pham Dinh Tao in their preliminary form in 1985 and extensively developed
by Le Thi
Hoai An and Pham Dinh Tao since 1994 to become now classic and increasingly
popular (see
for example http://lita.sciences.univ-metz.fr/~lethi/).DC programming is
a natural and logical extension of Convex Programming, sufficiently
large to cover almost all convex programs but not too in order to use the
powerful arsenal of
modern Convex Analysis and Convex Optimization.These theoretical and algorithmic
tools have been successfully used by researchers to model
and solve their nonconvex programs in different fields of Applied Sciences,
in particular :
Transport-Logistics, Telecommunication, Bioinformatics, Finance, Data Mining
and Machine
Learning, Cryptology, Mechanics, Image Processing, Robotics & Computer
Vision,
Petrochemistry, Optimal Control, Inverse Problems and Ill-Posed Problems,
Multiobjective
Programming, Variational Inequalty Problems (VIP), etc.In this talk, after
a suitable outline of DC Programming and DCA, we present DC
Programming and DCA for solving DC Programs with DC constraints.
* * *
23 juin 2011 à 9 heures
D206, UFM-MIM
Linear Multiobjective Optimization: Criteria and Dimension Reduction,
and Optimization over Efficient Sets
par
Professor Nguyen Van Thoai
FB IV - Mathematik, Univ Trier, Germany
We discuss
in this talk some methods for reducing the numbers of criteria and variables
in a linear multiobjective optimization problem. Thereafter, a lift-and-project
method for solving optimization problem over efficient sets is presented.
* * *
31 mars 2011 à 14 heures
E203, UFM-MIM
Apprentissage de fonctions définies par morceaux
par
Fabien Lauer
LORIA, Nancy
Les machines
à vecteurs de support et autres méthodes à noyaux peuvent
résoudre efficacement des problèmes de régression non linéaire,
notamment grâce à la formulation d'un programme d'optimisation convexe.Cependant,
ces approches se basent sur l'hypothèse d'une fonction
recherchée continue et régulière. Le problème d'apprentissage de
fonctions définies par morceaux impliquant des discontinuités de la
fonction ou des dérivées à des points inconnus est bien plus difficile,
car celui-ci mélange de manière intrinsèque des problématiques de
classification et de régression.Ce séminaire introduira ce problème
dans le cadre plus général de l'estimation de fonctions à commutations
et formulera les programmes d'optimisation non convexe permettant de le
résoudre. Quelques résultats numériques seront présentés pour permettre
d'évaluer les avantages de ces formulations, notamment en termes
d'efficacité pour traiter de grands jeux de données bruitées.
* * *
17 mars 2011 à 14 heures
E203, UFM-MIM
Programmation DC pour la détection de communautés
par
Conan-Guez Brieuc
LITA, Metz
Afin de
détecter des communautés dans un réseau, un critère, nommé 'critère
de modularité', a été proposé par Newman en 2004. Nous proposons dans
ce travail, un nouveau schéma d'optimisation de ce critère basé sur
la programmation DC.
* * *
22 octobre 2009 à 14 heures
Amphithéatre Hermite, UFM-MIM
Importance de la mise à jour dans les systèmes multi-agents. Une illustration
sur le modèle 'multi-Turmite'.
par
Nazim Fatès
LORIA, Nancy
It is to
date an open question to know how the updating methods affect the evolution
of a multi-agent system.This question has been tackled for various complex
systems such as cellular automata, Boolean networks, neural networks but
little is
known for multi-agent systems, especially for the models with a complex
behaviour which emerges from simple local rules.Our talk focuses on the
multi-Turmite model, also known as the multiple Langton's ants model.All
the agents are updated simultaneously and the variation of the updating
scheme consists only
in choosing different strategies for solving the conflicts produced when
two or more agents want to go on the same location.We show that for the
same formulation of the agents' behaviour, and the same initial conditions,
the use of different updating schemes may lead to qualitatively different
evolutions of the system.As a positive spin-off of this study, we exhibit
new phenomena of the multi-Turmite model such as deadlocks or gliders.
* * *
24 juin 2009 à 14 heures
Amphithéatre Hermite, UFM-MIM
Total Domination and the Caccetta-Häggkvist Conjecture.
par
Alain Hertz
Ecole Polytechnique de Montréal, Canada
A total
dominating set in a digraph G is a subset W of its vertices such that every
vertex of G has an immediate successor in W.
The total domination number of G is the size of the smallest total dominating
set.We consider several lower bounds on the total domination number and
conjecture that these bounds are strictly larger than g(G)-1.where g(G)
is the number of vertices of the smallest directed cycle contained in G.We
prove that these new conjectures are equivalent to the Caccetta-Häggkvist
conjecture
which asserts that g(G)-10
* * *
1 avril 2010 à 14 heures
D216, UFR-MIM
Recent results for the Vehicle Routing Problem and its variants
par
Aristide Mingozzi
Université de Bologne, Italie
his paper
presents an exact solution framework and a new state space relaxation method
for solving some variants of the Vehicle Routing Problem (VRP) that can
be modelled as Set Partitioning (SP) problems with additional constraints.
The method consists in combining different dual ascent
procedures to find a near optimal dual solution of the SP model. Then,
a column-and-cut generation algorithm based on a new pricing strategy attempts
to close the integrality gap left by the dual ascent procedures by adding
valid inequalities to the SP formulation. The final dual solution is used
to generate a reduced problem containing all optimal integer solutions
that is solved by an integer programming solver. In this paper, we describe
how this solution framework can be extended to solve different variants
of the VRP by tailoring the different bounding procedures to deal with
the constraints of the specific variant. We describe how this solution
framework has been recently used to derive exact
algorithms for a broad class of VRPs such as the Capacitated VRP (CVRP),
the VRP with Time Windows (VRPTW), the Pickup and Delivery Problem with
Time Windows (PDPTW), all types of Heterogeneous VRP (HVRP) including the
Multi Depot VRP (MDVRP), and the Period VRP (PVRP).
The computational
results show that the exact algorithm derived for each of these VRP variants
outperforms all other exact methods published so far and can solve several
test instances that were previously unsolved. Moreover, we show that the
bounding method can be easily adapted to the Traveling Salesman Problem
with Time Windows (TSPTW) and used into an exact dynamic programming algorithm.
Our computational results indicates that the resulting exact algorithm
outperforms all other exact methods published in the literature and is
able of solving in few seconds all TSPTW instances previously unsolved
by other methods.
* * *
4 mars 2010 à 14 heures
Amphithéatre Hermite, UFM-MIM
Apprentissage et Réseaux Sociaux.
par
Pr. Emmanuel Viennet
Laboratoire de Traitement et Transport de l'Information L2TI, Université
de Paris 13
L'étude
des réseaux sociaux a connu un essort remarquable ces dernières années,
avec le développement de nouvelles méthodes d'analyse et de fouille de
données. De nombreuses applications industrielles demandent l'analyse
de données structurées en réseaux: sites Web 2.0, opérateurs de télécommunications.
Les demandes sont variées et vont de la catégorisation de documents (messageries)
à la détection de communautés d'utilisateurs, en passant par les systèmes
de recommandation.
L'analyse
des réseaux sociaux pose des problèmes difficiles, comme la modélisation
des interactions 'sociales', la fouille de données structurées (graphes,
textes, données hétérogènes) et la prise en compte de l'évolution
temporelle des réseaux. De plus, les applications génèrent souvent des
volumes de données très importants, avec des graphes comptants plusieurs
dizaines des millions de noeuds, ce qui pose de sérieuses restrictions
sur les algorithmes utilisables.
Dans ce
séminaire, nous présenterons ce domaine de recherche et décrirons quelques
problématiques et exemples issus de projets récents.
* * *
4 février 2010 à 14 heures
Amphithéatre Hermite, UFM-MIM
THE INFINITY COMPUTER AND NUMERICAL COMPUTATIONS WITH INFINITE AND INFINITESIMAL
NUMBERS.
par
Yaroslav D. Sergeyev
Université de Calabria (Italie)
The lecture
introduces a new methodology allowing one to execute numerical computations
with finite, infinite, and infinitesimal numbers on a new type of a computer:
the Infinity Computer (European Patent 1728149).The new approach is based
on the principle 'The part is less than the whole' introduced by Ancient
Greeks that is applied to all numbers
(finite, infinite, and infinitesimal) and to all sets and processes (finite
and infinite).It is shown that it becomes possible to write down finite,
infinite, and infinitesimal numbers
by a finite number of symbols as particular cases of a unique framework
different from that of the non-standard analysis.
The new
methodology evolves Cantor's ideas in a more applied way and introduces
new infinite numbers
that possess both cardinal and ordinal properties as usual finite numbers.It
gives the possibility to execute computations of a new type and simplifies
fields of mathematics
where the usage of the infinity and/or infinitesimals is necessary
(e.g., divergent series, limits, derivatives, integrals, measure theory,
probability theory, fractals, etc.).Numerous examples and applications
are given. A number of results related to the First Hilbert Problem are
established.
The Infinity
Calculator using the Infinity Computer technology is presented during the
talk.
* * *
21 janvier 2010 à 14 heures
Amphithéatre Hermite, UFM-MIM
Projections non linéaires et modélisation topologique pour l'analyse
exploratoire de données.
par
Michaël AUPETIT
Commissariat d'Energie Atomique
Dans de
nombreux cas,
les données que l'on veut comprendre peuvent se représenter comme un
nuage de points dans un espace multidimensionnel.
Lorsque ces données sont représentées dans le plan, la visualisation
est un moyen efficace d'extraire des informations de nature statistique,
géométrique et topologique. Lorsque les données ne se représentent
pas naturellement dans le plan, il existe deux voies d'analyse possibles.
D'une part, les méthodes de projection dans le plan et d'autre part,
les méthodes d'analyse in situ dans l'espace multidimensionnel.Toutes
deux posent le problème de l'intelligibilité de la représentation ainsi
construite.Nous commencerons par présenter le paradigme de la visualisation
multidimensionnelle in situ,
qui définit un cadre dans lequel les projections planes de données multidimensionnelles
sont interprétables.
Nous montrerons que les méthodes de projection non-linéaires (type ISOMAP,
MDS, Sammon, LLE, KPCA, SOM...)
telles qu'elles sont habituellement employées ne sont en général pas
utilisables pour inférer sans erreur des propriétés des données originelles.
Nous montrerons comment replacer ces méthodes dans le cadre in situ pour
leur donner tout l'intérêt qu'elles méritent.
Nous présenterons ensuite une méthode d'extraction de caractéristiques
topologiques du nuage de points multidimensionnel.
Les caractéristiques topologiques (arc-connexité en particulier)
sont habituellement extraites visuellement après projection des données
dans le plan.
Nous explorons la voie de l'extraction de ces caractéristiques directement
dans l'espace d'origine par des modèles génératifs.
Nous montrerons
sur des exemples la complémentarité de ces deux approches pour l'analyse
exploratoire de données,
et discuterons des problèmes ouverts dans ce domaine.
* * *
5 septembre 2008 à 14 heures
salle E203, UFM-MIM
Formal black box testing
par
Tudor BALANESCU
Université de Pitesti, Roumanie
Cet exposé
sera séparé en deux parties : en premier lieu une présentation rapide
de l'Université de Pitesti ainsi que du cadre d'un accord avec le département
d'informatique de l'UFR-MIM concernant l'échange d'étudiants en master
et d'enseignants, et en second lieu une présentation scientifique concernant
les méthodologies de génération automatique de tests pour la validation
des logiciels conçus à l'aide des X-machines.
* * *
2 juillet 2009 à 13 heures 30
Amphi Ampère, UFM-MIM
Approximation polynomiale pour la minimisation du flowtime pondéré sur
une machine avec une contrainte d'indisponibilité
par
Imed Kacem
Université Paul Verlaine, Metz
We consider
a single-machine scheduling problem with the aim of minimizing the weighted
flowtime.We assume that the machine is unavailable during a fixed interval
known in advance.The pre-emption of jobs is not allowed and one can perform
only one job at a given time.The problem is NP-Hard and the elaboration
of approximation algorithms is a challenging subject.
Our contribution is related to the development of new approximation algorithms.In
particular, we studied the WSPT rule worst-case performance and showed
that its ratio is 3 under some conditions.Then, a new 2-approximation was
proposed by improving such a rule.Finally, we designed an efficient fully
polynomial time approximation scheme and showed that it is strongly polynomial.
* * *
27 mai 2009 à 14 heures
Salle Ampère, UFR MIM
Compact formulations for Difficult Combinatorial Problems - Pedigree Polytopes
par
Tiru Arthanari
University of Auckland, Auckland, New Zealand
This talk
will be on some new polyhedral approaches
that have exhibited some interesting properties and computational insights.Compact
formulations are also studied by Carr and Lancia (2004), Carr et al (2007)
for their performance.Multi stage insertion formulation for Symmetric Traveling
Salesman Problem
was given by Arthanari(1982) and subsequently Arthanari and Usha( 2001)
brought
out the interesting fact that the standard sub tour elimination polytope
(SEP) due to Dantzig,
Fulkerson and Johnson(1954) is equivalent to the projection space obtained
from the MI formulation.That is it is tight compact formulation.
New combinatorial objects called pedigrees which are in 1-1 correspondence
with tours are defined and studied by Arthanari (2005, 2006, and 2008).
The talk will highlight some of the interesting properties of the pedigree
polytope, which have computational implications.
* * *
7 mai 2009 à 14 heures
salle Ampère, UFM-MIM
Incorporating Minimum Frobenius Norm Models in Direct Search
par
Luis Nunes Vicente
University of Coimbra, Portugal
The goal
of this talk is to show that the use of minimum Frobenius
norm quadratic models can improve the performance of direct-search methods.The
approach taken here is to maintain the structure of directional
direct-search methods,organized around a search and a poll step,and to
use the set of previously evaluated points generated during
a direct-search run to build the models.The minimization of the models
within
a trust region provides an enhanced search step.Our numerical results
show that such a procedure can lead to a significant improvement of
direct search for smooth,piecewise smooth, and stochastic and
nonstochastic noisy problems.
* * *
2 avril 2009 à 14 heures
salle E203, UFM-MIM
Propriétés de la distribution statistique des pointeurs dans les gènes
des ciliés.
par
Serghei VERLAN
Université Paris 12, France
Les gènes
du macronoyau des ciliés sont composés des blocs séparés par des séquences
non-codantes, l'ordre et l'orientation des blocs pouvant être différentes.
Pendant la reproduction sexuelle tous les blocs sont assemblés dans le
bon ordre et toutes les séquences non-codantes sont éliminées. Ce processus
devient possible grâce à la structure spéciale des gènes du micronoyau:
chaque bloc codant M se termine par une séquence de nucléotides, appelée
pointeur, qui se répète en début du bloc qui succède M dans le gène
assemblé. Le premier bloc commence par un marqueur du début et le dernier
par le marqueur de la fin. Cependant, la longueur de certains pointeurs
dans les gènes du micronoyau ne permet pas leur recognition sans ambiguïté.
Plusieurs pointeurs possèdent des occurrences multiples sur les deux brins
du gène,ce qui produit un grand nombre de division possibles en blocs
codants et non-codants.
Nous avons
étudié la distribution statistique des pointeurs pour tous les gènes
séquencés à l'heure actuelle, afin d'identifier ce que différencie
le gène réel parmi toutes les divisions codantes/non-codantes possibles.
Cette étude nous a conduit à un critère qui différencie d'une manière
stricte la division réelle. Les résultats obtenus utilisent une représentation
du problème à l'aide de la théorie des langages formels.
* * *
29 novembre 2007 à 14 heures
salle FO6, IUT de Metz
Classification, Performance et Choix de fonds
par
Pascal Damel, Hery Razafitombo et Nadège Peltre
Université Paul Verlaine - Metz
Ce travail
a pour principal objet la construction de méthodologie susceptible d’aider
le gérant des fonds de fonds dans son activité de sélection. Les gérants
de fonds de fonds se heurtent à une difficulté particulière lors dans
la construction de portefeuille et la gestion de portefeuilles. Ils ne
disposent pas de la relative lisibilité qu’ont les gérants de fonds
traditionnels en matière de leviers de contrôle. Nous proposons dans
cette étude une réflexion sur la méthodologie de choix de fonds dans
le cadre d’un processus d’investissement et de construction d’un
portefeuille de fonds de fonds. Plus particulièrement, nous proposons
d’utiliser la méthode de classification hiérarchique pour constituer
des groupes de fonds homogènes et sur lesquels le gérant peut faire correspondre
ses objectifs d’investissements (anticipation, aversion pour le risque
et horizon d’investissement). Il s’agit d’une méthodologie alternative
à l’approche APT et à l’utilisation des classements des agences de
notations en matière de gestion institutionnelle des fonds d’investissements.
Elle a pour principal avantage de partir de l’ensemble d’informations
directement à la disposition des gérants et surtout de proposer une approche
multidimensionnelle pour tenir compte de la nature multicritère de la
décision des gérants de fonds.
Mots-clés : performance des fonds d’investissement,
sélection de fonds, méthode de classification.
* * *
22 novembre 2007 à 14 heures
salle FO6, IUT de Metz
Binary clustering and graphs
par
François Brucker
LITA, Université Paul Verlaine - Metz
In numerical
taxonomy (data are described by a distance, or more generally by a dissimilarity),
clusters classically are defined as the maximal cliques of some threshold
graphs. However, according to this definition, a given dissimilarity may
have an exponential number of clusters, which leads to the impossibility
to compute them all in practice.
Analyzing
a given dissimilarity is then, the most of time, only possible through
approximating it by a dissimilarity whose clusters are polynomially computable
(like ultrametrics whose cluster sets are hierarchies, Robinsonian dissimilarities
whose cluster sets are pyramids and more generally or weak-ultrametrics
whose cluster sets are weak hierarchies).
This talk
shows that by using a slightly modified version of Melter’s boolean distances
(called boolean dissimilarity) which are symmetric function from X×X to 2X (where X is the set
of objects), one can associate to any dissimilarity an unique set of clusters
which are polynomially computable.
The benefits
of this approach are multiple. First of all, we do not need to approximate
the data for producing clusters. Second, To each cluster is associated
a pair of objects which represent it. Third, classical model of classification
can be easily be interpreted as special boolean dissimilarities. At last,
they are a polynomial instance of a NP hard representation problem.
References
-
BARTHELEMY, J.-P., and BRUCKER, F. (2007), ”Binary Clustering”,
Discrete Applied Mathematics, avaiable online.
-
BRUCKER, F., and BARTHELEMY, J.-P. (2007), ”Éléments de Classification”,
Hermes Publishing, London.
-
BERTRAND, P. (2000), ”Set Systems and Dissimilarities”, European
Journal of Combinatorics, 21, 727–743.
* * *
8 novembre 2007 à 14 heures
salle FO6, IUT de Metz
Algorithmique combinatoire et fouille de données
par
Alain Gély
LITA, Université Paul Verlaine - Metz
L'accroissement
de l'utilisation de l'outil informatique a permis l'accès à de nombreuses
données, à partir desquelles il faut extraire à posteriori des connaissances.
La masse de données, en entrée (données brutes) comme en sortie (par
exemple classes obtenues à partir des données) est telle qu'elle nécessite
une algorithmique efficace.
Dans cet
exposé, on s'intéressera plus particulièrement à un objet souvent utilisé
dans le cadre de la fouille de données : Le treillis de Galois (Treillis
des Concepts), ainsi qu'à une problématique algorithmique particulière :
l'algorithmique d'énumération.
En effet,
l'étude de la génération du treillis de Galois nous amènera à étudier
des algorithmes d'énumération d'objets combinatoires : Cliques maximales
d'un graphe et bicliques maximales d'un graphe biparti.
Dans un
second temps, on s'intéressera au problème de la représentation d'un
treillis (en fait, du système de fermeture pouvant lui être associé)
par une famille d'implications. Après avoir rappelé l'intérêt d'une
telle représentation en fouille de données (problème du panier de la
ménagère), nous nous intéresserons aux problèmes algorithmiques posés
par la génération des éléments d'une base d'implication minimale, la
base de Guigues-Duquenne.
* * *
25 octobre 2007 à 14 heures
salle FO6, IUT de Metz
La convexité généralisée en économie mathématique
par
Jean Pierre Crouzeix
Université de Clermont Ferrand II
On montre,
à travers la théorie du consommateur, comment la convexité est une notion
tout à fait naturelle en économie.
* * *
18 octobre 2007 à 14 heures
salle FO6, IUT de Metz
Changing the Neighborhood of Cellular Automata
par
Hidenosuke Nishio
Université de Kyoto, Japon
We define
the cellular automaton by (S, Q,
fn, u),
where S is a discrete space, Q is a state set,
fn: Qn → Q is an n-variable
local function and ν is an injection {1, …, n} → S called neighborhood function.
A neighborhood function provides a connection between the variables of
local function and
the neighbors of every cell in S.
Thus, Image(ν) ↔ (ν(1), …, ν(n)) becomes
a neighborhood in the usual definition of CA.
When S and Q are fixed, say, S = ℤ and Q = {0, 1},
we focus on the pair (fn, ν)
called local structure and investigate the global
behavior of CA by changing local structures.
We first
show basic properties of equivalence of local structures
and then prove that a local structure induces countably many different
global maps only by changing ν. Next we observe what properties depend
on ν or not. Typically, we show some results and unsolved problems about
reversibility and universality of 1-dimensional CA having 3 variable local
function and 2 and 3 states. New Java Applet program and simulator will
also be explained.
* * *
19 juin 2008 à 14 heures
salle F06, IUT de Metz
A Practical Solution for the Inventory Routing Problem with Stationary
Demand Rates
par
El-Houssaine Aghezzaf
Ghent University, Belgium
Vendor-managed
inventory (VMI) is a partnering strategy relating a supplier and his customers.
Under the VMI policy, inventory monitoring and ordering responsibilities
are entirely transferred to the supplier. As a consequence, the supplier
decides both the quantities to deliver and the delivery times for his customers.
The inventory routing problem (IRP) is an underlying optimization problem
for VMI to cost-effectively coordinate and manage customer inventories
and related replenishments logistics. The particular case where customer
demand rates and travel times are stochastic but stationary will be discussed,
and a version of the inventory routing optimization model that generates
optimal robust distribution plans will be proposed. Results of a simplified
real-life case implementing the proposed optimization-simulation approach
will be discussed in detail.
* * *
29 mai 2008 à 14 heures
salle F06, IUT de Metz
Informatique de poche et entrée de texte
par
Mathieu RAYNAL
IRIT, Toulouse
La saisie
de texte est une activité essentielle lors de l'utilisation d'un ordinateur.
Pour les personnes ayant un fort handicap des membres supérieurs, cette
activité a été rendue possible grâce aux claviers dits « logiciels »
qui sont des représentations numériques de claviers physiques permettant
de saisir des données. Le déplacement du pointeur pour pointer le caractère
à saisir peut se faire à l'aide de tout type de dispositif de pointage
: souris, trackball, touchpad, mais aussi des dispositifs plus « lourds »
comme ceux de suivi du regard ou les mouvements de la tête.
Actuellement
le clavier logiciel le plus fréquemment utilisé a une disposition de
touches et de caractères qui est identique à celle des claviers physiques
Azerty ou Qwerty (selon la culture). Si cette disposition présente l'avantage
d'être
utilisée depuis plus d'un siècle et donc d'être connue du plus grand
nombre, elle a un inconvénient majeur qui réside dans l'éloignement
des caractères les plus fréquemment utilisés. Ce problème ne se posait
pas sur les claviers physiques avec l'utilisation de deux doigts différents
pour saisir successivement deux caractères éloignés. Cependant, l'utilisation
d'un seul pointeur pour sélectionner les caractères impose de déplacer
ce dernier entre chaque caractère à saisir. L'éloignement des caractères
les plus fréquemment utilisés entraîne une augmentation de la distance
à parcourir avec le pointeur, ce qui engendre une diminution de la vitesse
de saisie pour l'utilisateur, mais aussi des fatigues motrices voire oculaires.
Dans le
but de diminuer au maximum les déplacements à effectuer avec le dispositif
de pointage, de nombreuses techniques d'optimisation ont été testées.
Après avoir présenté les différentes métriques utilisées pour évaluer
les performances de l'utilisateur, nous dresserons un état de l'art des
techniques d'optimisation déjà testées. Enfin, nous présenterons nos
contributions à cette problématique avec :
-
– l'application d'une méta-heuristique d'optimisation connue (les
algorithmes génétiques) pour optimiser la disposition des caractères
sur le clavier logiciel et ainsi minimiser les déplacements à effectuer
lors de saisie de texte en français. Le clavier GAG (Généré par
Algorithme Génétique) est le résultat de cette optimisation.
-
– le système KeyGlass : celui-ci propose au fur et à mesure de
la saisie des caractères supplémentaires à proximité du dernier
caractère qui a été saisi. Ceci a pour but de diminuer les distances
(avec le pointeur du dispositif de pointage) nécessaire à parcourir
pour saisir du texte.
* * *
22 mai 2008 à 14 heures
salle F06, IUT de Metz
Informatique de poche et entrée de texte
par
Franck Poirier
Valoria - Université de Bretagne-Sud
&
LabSTICC - TELECOM Bretagne
La présentation
portera sur l'essor de l'informatique de poche et de l'interaction nomade.
L'exposé traitera de la problématique de la saisie de texte sur dispositifs
mobiles en présentant un panorama des différentes approches de saisie.
Les méthodes de saisie de la famille Glyph (Glyph2PPC, UniGlyph, HandiGlyph)
seront plus particulièrement détaillées.
* * *
15 mai 2008 à 15 heures
salle FO6, IUT de Metz
Convexity-based clustering criteria and the k-tangent algorithm with applications
to biclustering problems for a contingency table
par
Dr. Hans-Hermann Bock
Institute for Statistics, RWTH Aachen University
The well-known
SSQ criterion in cluster analysis is typically minimized by using the k-means
algorithm. This criterion can be generalized and leads to the maximization
of a convex function of class means. Suitable transformations show that
this new criterion can be maximized by a so called k-tangent or maximum-support-point
algorithm. -- Such problems are met, e.g., when bi-clustering a contingency
table. The paper presents the resulting iterative algorithm. Additionally,
it discusses several principles for deriving bi-clustering criteria for
data and for contingency tables.
* * *
15 mai 2008 à 14 heures
salle F06, IUT de Metz
The Eingenvalue Complementarity Problem
par
Joaquim Júdice
University of Coimbra and Institute of Telecommunications, Coimbra, Portugal
The Eigenvalue
Complementarity Problem (EiCP) is discussed, which arises on a directional
instability problem in systems with frictional contact. A few nonlinear
programming formulations are introduced for the symmetric EiCP, that is,
when the matrices of the problem are both symmetric, such that stationary
points of the corresponding objective functions on appropriate convex sets
lead to solutions of the problem. In the unsymmetric case, it is shown
that the EiCP reduces to a Finite-Dimensional Variational Inequality and
to a Mathematical Programming Problem with Linear Complementarity Constraints.
Necessary and sufficient conditions for the existence of a solution to
the EiCP are discussed. A spectral projected gradient method and an enumerative
algorithm are introduced for finding a solution to the symmetric and unsymmetric
EiCPs respectively. Computational experience is reported to illustrate
the efficiency of the algorithms to deal with these two cases.
* * *
10 avril 2008 à 14 heures
salle FO6, IUT de Metz
Modélisation de la communication dirigée par la longueur dans le cadre
du calcul moléculaire
par
Serghei Verlan
LACL, Université Paris 12
Dans cette
présentation nous considérons la technique de séparation des molécules
par la longueur, gel electrophoresis, qui est souvent utilisée en laboratoires
biochimiques. Nous montrons une formalisation de cette technique dans le
cadre du calcul moléculaire et nous démontrons que le modèle obtenu
a la puissance d'une machine de Turing. Enfin, on discute quelques restrictions
naturelles et des généralisations du modèle obtenu qui peuvent être
utilisées pour la recherche des transformations efficaces des molécules
d'ADN en laboratoire.
* * *
26 mars 2008 à 14 heures
salle FO6, IUT de Metz
Graphes structurés : étude algébrique et logique
par
Bruno Courcelle
LaBRI, Bordeaux
La construction
des graphes de largeur arborescente ou de clique bornée permet d'étendre
aux graphes les concepts de base de la théorie des langages : grammaires
context-free, reconnaissabilité.
La logique
du second ordre monadique permet de spécifier des propriétés de graphes
et des transformations. La construction d'algorithmes FPT s'appuie sur
ces notions.
* * *
13 mars 2008 à 14 heures
salle FO6, IUT de Metz
Upper bound analysis of branching algorithms
par
Magnus Wahlström
Institut Max Planck, Saarbruck, Allemagne
Branching
algorithms are a common tool for solving NP-hard problems, both in theoretical
work and in practice. A common focus in the theoretical work is to produce
an algorithm with a strongest-possible upper bound on its worst-case running
time (e.g. O(cn) for some
constant c). This talk focuses on the analysis
part of this process; that is, on how to show that a certain branching
algorithm will have its time bounded by some O(cn) through the use of complexity measures.
One major
step in this field is the work by Eppstein on multi-variate recurrences.
For many branching algorithms, the best bound is due to modelling the execution
of the algorithm as such a recurrence, and using Eppstein's method to automatically
find a complexity measure which gives a bound O(cn) which is tight to within a polynomial factor
for the model (if not for the actual execution of the algorithm). This
model is presented, the assumptions and restrictions that surround the
results are discussed, and some results and open questions on these are
given.
In particular,
Eppstein's model requires an assumption of uniformity of the algorithm.
We finally show a way to relax this assumption, and give better bounds
for essentially non-uniform algorithms, while still being able to automate
the process, by using piecewise linear complexity measures. Here, #2SAT
(the problem of counting solutions to a 2SAT formula) is used as an example.
* * *
6 mars 2008 à 14 heures
salle FO6, IUT de Metz
Changing the Neighborhood of Cellular Automata: Achieving universality
and related questions
par
Thomas Worsch
Université de Karlsruhe
When investigating
CA, usually a standard neighborhood is fixed and one looks at different
local rules. We are interested in the opposite: Fix a local rule and have
a look at what can happen when using it with different neighborhoods.
After some
introductory examples and observations we will first show that one can
achieve universality using a specific local CA function with neighborhoods
of size 5. The second part of the talk will be concerned with some of
the questions and problems related to the construction. In particular the
presence/absence of certain propoerties of the notion of "simulation" used
is worth a closer look.
* * *
28 février 2008 à 14 heures
salle FO6, IUT de Metz
Systèmes pédagogiques propositionnels
par
David Michel
LITA, Université Paul Verlaine - Metz
Il est fréquent
dans l'enseignement des mathématiques d'illustrer les définitions d'objets
à l'aide d'exemples les motivant dans le but de faciliter la compréhensions
de notions parfois très abstraites. Certains théoriciens des sciences,
comme Poincaré, préconisent de manière générale l'utilisation systématique
de définitions accompagnées d'exemples. D'autres, comme Griss, avancent
même que les définitions ne pouvant être motivées sont dénuées de
sens.
Les systèmes
pédagogiques sont des systèmes de déduction naturelle formalisant l'utilisation
systématique de définitions motivées. Dans ce contexte, une définition
est un ensemble de formules, les objets définis sont représentés par
les variables libres de ces formules et les motivations sont des substitutions
(i.e. des fonctions remplaçant des variables libres
par des objets de même type dans une formule) rendant prouvables toutes
les formules de l'ensemble.
Lors de
cet exposé, nous présenterons différents systèmes pédagogiques propositionnels.
Nous aborderons les conditions d'existence des motivations; puis nous détaillerons
propriétés métamathématiques des systèmes pédagogiques, dont les
principales sont la disparition de la négation et l'existence de traductions
des systèmes intuitionnistes et classiques dans les systèmes pédagogiques.
* * *
7 février 2008 à 14 heures
salle FO6, IUT de Metz
Étude des courbes et surfaces discrètes
par
Isabelle Debled-Rennesson
LORIA
Les travaux
qui seront présentés se situent dans le cadre de la géométrie discrète,
dite analytique, initiée par Jean-Pierre Réveillès avec l'introduction
de la définition arithmétique d'une droite discrète en 1991.
Dans la
première partie de mon exposé, les algorithmes, issus de cette définition
et permettant l'étude des courbes discrètes, seront exposés : estimateurs
de paramètres géométriques, segmentation, polygonisation. Ces algorithmes
perdent de leur efficacité sur des objets bruités et c'est pourquoi je
présenterai, dans un second temps, un formalisme adapté aux objets discrets
bruités qui tient compte du bruit inhérent aux outils et méthodes d'acquisition.
Pour étudier les courbes et les surfaces discrètes bruitées, j'ai proposé
les notions de segments flous arithmétiques et de morceaux de plans flous
qui sont des généralisations des notions de segments de droites et de
morceaux de plans discrets arithmétiques. L'étude des propriétés arithmétiques
et géométriques de ces objets a permis d'obtenir des algorithmes de reconnaissance
et d'extraire des paramètres géométriques (périmètre, courbure, normale,
aire) sur les courbes et surfaces bruitées. Ces méthodes seront présentées
ainsi que des applications en analyse d'image et en bioinformatique.
* * *
31 janvier 2008 à 14 heures
salle FO6, IUT de Metz
Sur la dissémination de l'information dans des classes de graphes réguliers
et irréguliers
par
I. Todinca
LIFO, Université d'Orléans
Nous considérons
un modèle très naturel de dissémination de l'information dans les graphes.
Le processus démarre par le choix aléatoire des sommets actifs (contenant
de l'information), chaque sommet étant choisi indépendamment avec probabilité
p. Pendant le processus, un sommet inactif devient
actif si la majorité absolue de ses voisins sont actifs ; les sommets
actifs ne changent jamais d'état.
Nous donnons
des familles de graphes pour lesquelles, même pour des valeurs de p relativement petites, l'information contamine presque
sûrement la totalité du réseau. Ainsi, pour les « roues », formées
d'un cycle plus un sommet universel, la contamination est presque certaine
dès que p > 41%. Pour les graphes formés d'une
grille torique plus un sommet universel, ce seuil baisse à 37%. Ceci contredit
l'intuition naïve selon laquelle il faudrait une majorité de sommets
initialement actifs afin de contaminer le graphe.
J'évoquerai
brièvement quelques résultats sur les graphes cubiques, où il faut au
moins 50% de sommets initialement actifs afin de contaminer le graphe.
* * *
17 janvier 2008 à 14 heures
salle FO6, IUT de Metz
Arbres m-aires de recherche et urnes de Pólya
par
Nicolas Pouyanne
Université de Versailles Saint-Quentin-en-Yvelines
Les arbres
m-aires de recherche proviennent d'un algorithme
de tri en informatique dans lesquels chaque nœud de l'arbre contient m clefs. Leur comportement aléatoire asymptotique présente
une « transition de phase », selon que m≤26
ou m>26. Ces arbres entrent dans le modèle plus
large des processus d'urnes de Pólya-Eggenberger, dans lesquelles des
boules de plusieurs couleurs sont tirées aléatoirement une par une, avec
une règle de remise dépendant de la couleur tirée. On fera l'analyse
de ces algorithmes en décrivant l'asymptotique des processus aléatoires
associés.
* * *
14 décembre 2006 à 14 heures
salle FO6, IUT de Metz
Exact algorithms for NP hard problems
par
Fedor Fomin
Université de Bergen, Norvège
It is a
common belief that exponential time algorithms are unavoidable when we
want to find an exact solution of an NP hard problem. The design of exact
(moderately exponential) algorithms has a long history dating back to Held
and Karp's paper on the travelling salesman problem in the early sixties.
The last years have seen an emerging interest in constructing exact algorithms
for combinatorial problems like Coloring, Max-Cut, 3-SAT, Minimum Dominating
Set, Treewidth, and Maximum Independent Set. In this talk we overview some
recent results and techniques in the area of exact algorithms and conclude
with several open problems.
* * *
7 décembre 2006 à 14 heures
salle FO6, IUT de Metz
Un Algorithme exact exponentiel pour déterminer une clique dominante minimum
par
Mathieu Liedloff
LITA, Université Paul Verlaine - Metz
Une clique
dominante d'un graphe G = (V, E) est un sous-ensemble
des sommets qui est à la fois une clique et un ensemble dominant. On dit
qu'un sous-ensemble C des sommets est une clique
si et seulement si pour tout u, v dans C,
l'arête {u, v} appartient au graphe. Un ensemble
dominant est un sous-ensemble D des sommets tel
que pour tout u n'appartenant pas à D,
le sommet u a au moins un voisin dans D.
Décider
si un graphe admet une clique dominante est un problème NP-complet. Par
conséquent les problèmes d'optimisation Clique Dominante
Minimum et Clique Dominante Maximum qui
demandent respectivement de trouver une clique dominante de taille minimum
et maximum sont également NP-difficiles.
Après avoir
motivé l'étude des algorithmes exponentiels, nous présenterons un algorithme
exact qui calcule une clique dominante minimum d'un graphe, si un tel ensemble
existe. Nous montrerons que le temps d'exécution de notre algorithme est
O(1,339n) grâce à une
analyse utilisant la technique Mesurer pour Conquérir.
En outre nous établirons comme borne inférieure Ω(1,2599n) sur le temps d'exécution
au pire des cas. Nous compléterons l'exposé de quelques résultats connexes
à l'étude de ce problème.
* * *
30 novembre 2006 à 14 heures
salle FO6, IUT de Metz
Optimisation et ré-optimisation en nombres entiers, application à la
planification en transport
par
Anass Nagih
LITA, Université Paul Verlaine - Metz
Les travaux
de recherche présentés dans cet exposé s'inscrivent dans le cadre de
la résolution globale et efficace de problèmes d'optimisation de grande
taille, issus de la gestion de ressources dans les réseaux de transport
avec des volets théoriques, algorithmiques et applicatifs. Plus précisément,
le travail de recherche présenté ici concerne les problèmes de (re)construction
de rotations d'équipages en transport aérien suite à des perturbations
majeures et leur résolution par des méthodes de décomposition. Il s'agit
d'améliorer la qualité des solutions produites par le problème auxiliaire
(par conséquent le nombre global d'itérations du schéma itératif) tout
en réduisant le temps de résolution de chacune de ses instances. Les
approches proposées sont basées :
-
– d'une part sur des réductions de l'espace des états par agrégation
des ressources ;
-
– d'autre part sur l'utilisation de la ré-optimisation, en cas
de faible modification des données, en exploitant l'historique des
résolutions des différentes instances du processus.
Les principaux résultats théoriques et algorithmiques ont été validés
expérimentalement sur des instances de la compagnie Air Canada issus de
problèmes de planification opérationnelle.
* * *
9 novembre 2006 à 14 heures
salle FO6, IUT de Metz
Cellular Automata with a Fixed Local Function on Different Neighborhoods
par
Hidenosuke Nishio
Université de Kyoto
The neighborhood
is a fundamental constituent of the cellular automaton. Usually a standard
neighborhood like the von Neumann neighborhood is fixed and different local
functions are investigated. In this talk, however, we go the reverse way;
fix a local function and observe what happens if we change the neighborhood.
We will show some instances where the global behavior is not affected by
changing the neighborhood. On the other hand, injectivity and surjectivity
are generally not preserved by changing the neighborhood.
* * *
31 mai 2007 à 15 heures
salle FO6, IUT de Metz
Quelques applications des fonctions splines variationnelles aux CAGD et
aux sciences de la terre
par
Abdelouahed Kouibia
Université de Granada, Espagne
Dans ce
travail, on considère un problème d'approximation des courbes et des
surfaces paramétriques par des fonctions splines variationnelles, à partir
d'un certain ensemble de données. Ce problème a des applications dans
plusieurs champs, comme par exemple, CAGD, CAD, la Géophysique et la
Géologie Structurelle, et autres Sciences de la Terre, etc...
Sous un
schéma générique, nous présentons une méthode d'approximation
sur des domaines bornés, similaire à celle développée par d'autres
auteurs pour le cas des Dm-splines (voir [1] et
[10]). Nous traiterons deux méthodes, l'une est d'interpolation et l'autre
est d'ajustement, en minimisant certaines fonctionnelles dans un sous ensemble
convexe d'un espace de Sobolev ou dans l'espace lui même. Ces fonctionnelles
sont constituées d'une part, par une famille d'applications linéaires
et continues, qui ont pour but l'approximation d'un ensemble de données
bien déterminées, et d'autre part, par une autre famille de semiproduits
scalaires continus, qui ont pour but la considération de certaines restrictions,
comme par exemple : la restriction « fair », la minimisation de la longueur,
la minimisation de la courbure, la minimisation de l'air (voir [8]), etc...
Pour plusieurs applications dans les champs des Sciences de la terre et
la CAGD, voir les références [2]-[8].
On va terminer
ce travail par une application au Dessin Géométrique Assisté par
Ordinateur (CAGD) sur l'étude de blending curves,
qui est un travail conjoint avec le Département de Mathématiques et
d'Informatique de la Faculté des Sciences de l'Université Mohammed
Premier, Oujda-Maroc, et le Laboratoire d'Informatique Théorique et
Appliquée (LITA) de l'Université de Metz. Metz-France (voir [9]).
Bibliographie
-
R. Arcangéli, Dm-splines sur un domaine
borné de ℝn. Publication UA 1204
CNRS N° 86/2 (1986).
-
A. Kouibia, Aproximación de curvas y supercies paramétricas mediante
splines variacionales, Thèse doctorale, Universidad de Granada, 28
de Mai 1999.
-
A. Kouibia and M. Pasadas, Construction of Surfaces by discrete variational
splines with Parallelism Conditions, J. Comput. Appl. Math. 164-165,
455-467, 2004.
-
A. Kouibia and M. Pasadas, Approximation by Discrete Variational Splines,
J. Comput. Appl. Math. 116, 145156, 2000.
-
A. Kouibia and M. Pasadas, Variational bivariate interpolating splines
with positivity constraints, Appl. Numer. Math. 44, 507-526, 2003.
-
A. Kouibia, M. Pasadas and J. J. Torrens, Construction of Surfaces
with Parallelism Conditions, Numerical Algorithms 33, 331-342, 2003.
-
A. Kouibia and M. Pasadas, Construction of Surfaces by discrete variational
splines with Parallelism Conditions, J. Comput. Appl. Math. 164-165,
455-467, 2004.
-
A. Kouibia and M. Pasadas, Approximation of surfaces by fairness bicubic
splines, Adv. Comput. Math. 20, 87-103, 2004.
-
A. Kouibia, M. Pasadas, D. Sbibih, B. Bachir and A. Zidna, Linear interpolation
Geometric continuity G2 of blended curves
and surfaces, Preprint (2007).
-
M. Pasadas, Aproximación de curvas y supercies paramétricas con
condiciones de tangencia, Thèse doctorale, Universidad de Granada
(1995).
* * *
31 mai 2007 à 14 heures
salle FO6, IUT de Metz
Optimization of Stochastic Systems and Worst-case Decisions
par
Nalan Gulpinar
Warwick Business School, Royaume-Uni
Stochastic
decision-making involves uncertainty and consequently risk. An important
tool to address the inherent error for forecasting uncertainty is worst-case
analysis. The significance of robust strategies is increasingly recognized
as attitudes towards risk evolve in diverse areas. In this talk I describe
decision making methods for dynamic systems under uncertainty. Expected
value optimization of stochastic systems and worst-case robust strategies
are considered. Worst-case approach to financial portfolio management,
mission planning and performance engineering is presented.
* * *
24 mai 2007 à 14 heures
salle FO6, IUT de Metz
Differential Evolution and its Applications in Optimization and Data Mining
par
Daniela Zaharie
Université de l'Ouest, Timisoara
Differential
Evolution (DE) belongs to the class of stochastic optimization methods
based on evolving a population of candidate solutions. Its main particularity
with respect to other evolutionary methods consists in a particular type
of recombination involving at least three parents. Since its invention,
twelve years ago, DE attracted much interest due to its simplicity and
good convergence behavior. A significant number of variants have been proposed
and a lot of applications have been identified. Despite the large number
of reported applications where DE was successfully applied, the theory
of DE is still in its infancy. One of the problems in designing a DE, which
may benefit from theoretical results, is to find the values of the control
parameters which ensure a good balance between the exploration and the
exploitation of the search space in order to avoid premature convergence
or very slow convergence.
We will
present some theoretical results concerning the exploration power of DE
and a strategy to adapt the control parameters of the algorithm in order
to avoid premature convergence. The influence of the process of adapting
the control parameters on the algorithm behavior in the case of multi-objective,
multi-modal and noisy optimization will be illustrated. Practical applications
of DE in molecular structures optimization and in data clustering will
be also presented.
* * *
10 mai 2007 à 14 heures
salle FO6, IUT de Metz
Modèles probabilistes de la connaissance pour les environnements d'apprentissage
intelligents
par
Michel Desmarais
École Polytechnique de Montréal
Les environnements
d'apprentissage intelligents, tels que les guides d'étude et les systèmes
tutoriels, nécessitent souvent une évaluation détaillée des compétences
acquises de l'apprenant. Les modèles probabilistes, comme les réseaux
bayésiens, sont particulièrement adaptés pour l'évaluation des compétences
acquises compte tenu de la nature incertaine de l'évaluation. En outre,
les modèles basés sur l'apprentissage automatique à partir de données
offrent des avantages attrayants par rapport aux modèles qui nécessitent
l'intervention d'experts du domaine. Nous révisons les enjeux des modèles
d'apprentissage automatique pour l'évaluation des compétences acquises.
Nous rapportons les résultats de différentes études comparatives des
modèles probabilistes bien connus et démontrons que des modèles simples
en termes mathématiques et calculatoires, mais basés sur des fondements
cognitifs reconnus, offrent les résultats les plus encourageants.
* * *
15 mars 2007 à 14 heures
salle FO6, IUT de Metz
Le parallélisme et équilibrage de charges dans les opérations de jointure
sur une architecture distribuée
par
Mostafa Bamha
LIFO, université d'Orléans
La jointure
est l'une des opérations les plus fréquentes et les plus coûteuses dans
les systèmes de gestions de bases de données. Cette opération est très
vulnérable au déséquilibre de l'attribut de jointure et au déséquilibre
du résultat de jointure. Dans cet exposé, nous présenterons l'algorithme
de jointure Osfa-join qui traite de manière efficace
les problèmes du déséquilibre des données dans les opérations de jointures
sur une architecture distribuée, tout en réduisant les coûts de communication
au minimum. Une version pipelinée ainsi que d'autres extensions de l'algorithme
sont également présentées. L'objectif du parallélisme pipeliné dans
Osfa-join est de réduire le temps d'exécution
des requêtes complexes tout en offrant une grande flexibilité dans l'allocation
des ressources dans le parallélisme à grande échelle.
* * *
1 mars 2007 à 14 heures
salle FO6, IUT de Metz
Les données de biopuces et leur analyse
par
Doulaye Dembélé
Université de Strasbourg
La technologie
de biopuces apparaît comme une technologie leader dans le domaine de la
biologie moléculaire pour l'étude des gènes à l'échelle du genome.
Nous nous intéresserons ici aux biopuces utilisées pour l'étude de l'expression
génique. Une brève présentation de la technologie et de la production
des données sera faite puis, les étapes d'analyse de ces données seront
passées en revue. Nous nous intéresserons plus particulièrement aux
méthodes de classification/clustering. Les problèmes liés au traitement
de ces données qui sont de grandes dimensions seront évoqués ainsi que
les solutions proposées. La présentation se terminera par les méthodes
de fouille de données.
* * *
25 janvier 2007 à 14 heures
salle FO6, IUT de Metz
Self-organized symmetry in frame cellular automata
par
André Barbé
Katholieke Universiteit Leuven, Belgique
A frame
is a finite set X of cells organized in a set of
elementary frames. These are subsets Fj
⊂ X, j = 1,…,l such that ∪lj=1
Fj = X. A frame forms the support of a
so-called frame cellular automaton (FCA), which is obtained by attributing
to each cell in the frame a state s from a finite
set S, in some restricted way defined by a ("local")
rule for the cell-states in each elementary frame. This rule is such that
knowledge of all but one of the cell-states in an elementary frame determines
the frame of the remaining cell. (I.e., if an elementary frame contains
n cells, the configuration of the states in it
is determined by an (n - 1)-ary
quasigroup).
We discuss
a series of experiments using FCA with geometrically symmetric support,
where an essentially random feedback mechanism forces the state configuration
pattern of the FCA into an attractor state with the same symmetry.
* * *
11 janvier 2007 à 14 heures
salle FO6, IUT de Metz
Épeler Fibonacci
par
Patrice Séébold
LIRMM, Université Montpellier II
Nous considérons
les mots infinis, suites de lettres prises dans un alphabet donné. Ici
nous nous intéressons à leur évolution sous l'action d'une transformation
particulière, appelée par Conway « look and say », qui consiste à
lire à haute voix les suites de lettres rencontrées en lisant un mot
et à analyser le nouveau mot ainsi obtenu.
Nous nous
focalisons plus particulièrement sur le mot de Fibonacci, mot infini engendré
par le morphisme
φ défini sur l'alphabet
{1, 2} par
φ(1) = 12,
φ(2) = 1.
F = limn→∞ φn(1) = 1211212112112121121211211212112112…
Ce mot possède de nombreuses propriétés remarquables. En appliquant
l'opération
look and say au mot de Fibonacci qui
commence par « un 1, un 2, deux 1, un 2,… », on obtient un nouveau
mot (qui commence donc par 11122112) dont les propriétés sont intéressantes.
* * *
15 décembre 2005 à 14 heures
salle FO6, IUT de Metz
Extraction rapide d'information dans un corpus de documents textuelles.
Application à Who is Who?
par
Abolfazl Fatholahzadeh
Supelec Metz
En extraction
d'information (EI), on cherche à analyser le contenu des textes pour répondre
à une besoin de recherche spécifique au sein d'un document. Dans cet
exposé, la question de rapidité d'une telle recherche sera abordée par
notre propre méthode combinant la théorie des automates et l'apprentissage
symbolique. L'application de notre méthode pour déterminer des informations
associées aux individus sera un prétexte pour aborder les problèmes
suivants:
-
P1. Le traitement des séquences des mots/clés
inconnus vis-à-vis du (des) dictionnaire(s) d'EI ;
-
P2. La richesse d'EI pour une classification
pertinente.
Ensuite, nous montrons comment notre méthode traite efficacement P1 tout
en aidant à résoudre le deuxième problème.
* * *
17 novembre 2005 à 14 heures
salle FO6, IUT de Metz
Modélisation neuronale et données fonctionnelles
par
Brieuc Conan-Guez
LITA, Université Paul Verlaine - Metz
L'Analyse
de Données Fonctionnelles est une extension de l'analyse de données traditionnelles
à des individus décrits par des fonctions. Le travail présenté ici
s'inscrit pleinement dans ce courant, et tente de faire la jonction entre
le domaine de la statistique fonctionnelle, et celui des techniques «
neuronales » classiques.
L'extension
du perceptron multi-couches (PMC) à des espaces fonctionnels apporte une
réponse naturelle au traitement d'individus de type fonctions. Ce modèle
possède deux propriétés théoriques importantes :
-
– le modèle est un approximateur universel, i.e. que toute fonction
continue définie sur un espace fonctionnel peut être approchée arbitrairement
bien par un PMC fonctionnel ;
-
– de plus, l'estimation des paramètres du modèle est consistante.
L'originalité de ce résultat vient du fait que non seulement l'estimation
s'effectue sur un nombre fini d'individus (les fonctions observées),
mais que de plus chacune de ces fonctions n'est connue qu'en un nombre
fini de points d'observation (discrétisation).
* * *
10 novembre 2005 à 14 heures
salle FO6, IUT de Metz
Résolution Parallèle du problème SAT : situation et perspectives
par
Daniel Singer
LITA, Université Paul Verlaine - Metz
Le problème
SAT consiste à savoir si une formule du calcul propositionnel est satisfiable
ou non. Ce problème est le prototype des problèmes NP-Complets et, du
point de vue du parallélisme, un exemple d'application irrégulière.
De nombreux
domaines ont récemment fait appel au formalisme propositionnel comme cadre
de résolution ; citons les problèmes de planification et d'ordonnancement
de tâches en optimisation combinatoire, la conception et la vérification
de circuits logiques en électronique, le model checking borné dans les
méthodes formelles et, très récemment, la cryptographie.
Plusieurs
facteurs contribuent à ce regain d'intérêt pour SAT. Premièrement,
de nouveaux algorithmes sont concus pour résoudre des problèmes de plus
grande taille en un temps raisonnable (en 10 ans on est passé de 100 à
100 000 variables). Deuxièmement, des codages propositionnels plus sophistiqués
sont proposés pour les problèmes réels et permettent, dans certains
cas, de trouver une solution plus rapidement que dans leur codage d'origine.
Cet intérêt crée une demande toujours croissante en puissance de calcul
et notamment dans l'utilisation de machines parallèles ou distribuées
pour la satisfaire. Mais, paradoxalement, il existe très peu de travaux
fondamentaux ou de réalisations pratiques dans cette direction.
Après une
présentation générale de la situation concernant la résolution séquentielle
du problème SAT, nous donnons les diverses approches pour la résolution
en parallèle. Nous aborderons aussi les perspectives de recherche dans
ce domaine.
* * *
27 octobre 2005 à 14 heures
salle FO6, IUT de Metz
Au sujet des implémentations d'algorithmes primitifs récursifs
par
Pierre Valarcher
Université de Rouen
On s'intéresse
à définir une classe d'algorithmes (assez large) en utilisant la notion
de machine abstraite à états (ASM de Gurevich). Puis on montre comment
un langage impératif simple permet d'implémenter de tels algorithmes.
On discutera ensuite de la pertinence de cette classe d'algorithmes.
(Travail en commun avec Ph. Andary et B. Patrou - LIFAR).
* * *
13 octobre 2005 à 14 heures
salle FO6, IUT de Metz
From complex problems to efficient solutions: a structural and logical
approach
par
Detlef Seese
Karlsruhe University
Many algorithmic
problems of high complexity for graphs and networks can be solved efficiently
(in polynomial or linear time) if their input structures are close related
to trees (the similarity is measured by parameters as tree-width, branch-width,
clique-width, ...). A uniform approach to such results is given by considering
extensions of Monadic Second Order (MSO) logic and the logical tool of
interpretability. The methods are used to investigate the borderline between
decidable and undecidable monadic theories. A conjecture in this area states
that each decidable MSO theory of countable structures can be reduced to
the MSO theory of trees via interpretability. Recent results concerning
this conjecture for graphs and matroids are discussed.
* * *
6 octobre 2005 à 14 heures
salle FO6, IUT de Metz
P-automata
par
Erzsébet Csuhaj-Varjú
Computer and Automaton Research Institute,
Hungarian Academie of Sciences
In this
talk we characterize the classes of languages described by different variants
of P automata, i.e. accepting P-systems with communication rules only.
Membrane
systems, or P-systems, are biomolecular computing devices working in a
distributed and parallel manner, inspired by the architecture and the functioning
of the living cell. The main ingredient of a P-system are a hierarchically
embedded structure of membranes and the sets of rules associated with them
which describe the evolution and communication of the objects present in
the regions embraced by the membranes.
P-automata
have one more important ingredient: the environment. The environment is
considered as an infinite supply of objects which may be requested by the
application of one or more rules associated to the skin (the outmost) membrane,
and these objects may traverse this membrane and enter when they are requested
to do so. The objects in a P-automaton move through the membranes from
region to region and they are not modified during the functioning of the
systems. The languages determined by the P-automata are obtained as the
set of accepted sequences of multisets containing the objects entering
from the environment during the functioning of the system.
We present
results on the computational power of these constructs, namely we show
how we can obtain any recursively enumerable language by applying some
appropriate mapping to the language of an appropriate P-automata. Motivated
by properties of natural computing systems, computational complexity classes
of the Turing machines with a certain restriction on the use of the available
workspace in the course of computations have been related to the language
classes described by P-automata. We show that if the rules of the P-system
are applied sequentially, then the accepted language class is strictly
included in the class of languages accepted by one-way Turing machines
with a logarithmically bounded workspace, and if the rules are applied
in the so-called maximal parallel manner, then the class of context-sensitive
languages is obtained. We also discuss recent open problems in the area.
* * *
29 juin 2006 à 15 heures 30
amphitéâtre Pilâtre, UFR MIM
Sur l’orientation d’arêtes pour la détermination du nombre chromatique
par
Alain Hertz
École polytechnique de Montréal
Nous considérons
le problème consistant à orienter les arêtes d’un graphe de telle
sorte que la longueur d’un plus long chemin dans le graphe résultant
soit minimum. Tel que démontré par Gallai, Roy et Vitaver, ce problème
d’orientation d’arêtes est équivalent au problème de la détermination
du nombre chromatique d’un graphe. Nous étudions diverses propriétés
liées aux méthodes d’orientation d’arêtes dans le contexte de la
recherche locale pour la coloration de graphes. Nous exploitons ensuite
ces propriétés pour proposer quatre algorithmes de Recherche Tabou basés
chacun sur des voisinages différents. Nous effectuons finalement quelques
expériences numériques pour comparer ces quatre algorithmes, pour déterminer
lesquels semblent les plus prometteurs et pour proposer des directions
de recherche potentielles.
* * *
29 juin 2006 à 14 heures
amphitéâtre Pilâtre, UFR MIM
Vision-Simulated Imaging
par
Brian A. Barsky
Université de Californie
Vision-simulated
imaging (VSI) is the computer generation of synthetic images to simulate
a subject's vision, by incorporating the characteristics of a particular
individual’s entire optical system. Using measured aberration data from
a Shack-Hartmann wavefront aberrometry device, VSI modifies input images
to simulate the appearance of the scene for the individual patient. Each
input image can be a photograph, synthetic image created by computer, frame
from a video, or standard Snellen acuity eye chart -- as long as there
is accompanying depth information. An eye chart is very revealing, since
it shows what the patient would see during an eye examination, and provides
an accurate picture of his or her vision. Using wavefront aberration measurements,
we determine a discrete blur function by sampling at a set of focusing
distances, specified as a set of depth planes that discretize the three-dimensional
space. For each depth plane, we construct an object-space blur filter.
VSI methodolgy comprises several steps:
-
creation of a set of depth images,
-
computation of blur filters,
-
stratification of the image,
-
blurring of each depth image,
-
and composition of the blurred depth images to form a single vision-simulated
image.
VSI provides
images and videos of simulated vision to enable a patient's eye doctor
to see the specific visual anomalies of the patient. In addition to blur,
VSI could reveal to the doctor the multiple images or distortions present
in the patient's vision that would not otherwise be apparent from standard
visual acuity measurements. VSI could educate medical students as well
as patients about the particular visual effects of certain vision disorders
(such as keratoconus and monocular diplopia) by enabling them to view images
and videos that are generated using the optics of various eye conditions.
By measuring PRK/LASIK patients pre- and post-op, VSI could provide doctors
with extensive, objective, information about a patient's vision before
and after surgery. Potential candiates contemplating surgery could see
simulations of their predicted vision and of various possible visual anomalies
that could arise from the surgery, such as glare at night. The current
protocol, where patients sign a consent form that can be difficult for
a layperson to understand fully, could be supplemented by the viewing of
a computer-generated video of simulated vision showing the possible visual
problems that could be engendered by the surgery.
* * *
8 juin 2006 à 14 heures
salle FO6, IUT de Metz
Nouvelles classes de graphes et ordonnancement
par
Cheikh Brahim Ould El Mounir
Université d'Amiens
Nous considérons
un ensemble de tâches qui sont exécutées en une unité de temps chacune
et k processeurs identiques. Ces tâches sont sujettes à des contraintes
de précédence et des délai de communication (le délai de communication
est le temps qu'il faut pour qu'un processeur informe un autre processeur
que l'exécution de la tâche est terminée). Nous supposons que le délai
de communication est constant et est égal à 0 ou à 1. Le graphe correspondant
aux contraintes de précédence est un graphe orienté sans cycle (DAG)
où l'ensemble des sommets représente l'ensemble des tâches (un sommet
par tâche) et les arcs représentent les contraintes de précédences.
Un tel graphe est appelé task-graph. Une des classes de graphes les plus
connues des task-graph sont les graphes série-parallèle (VSP) introduites
par Tarjan en 1982.
Nous allons
présenter de nouvelles variantes des graphes série-parallèle ainsi que
leurs algorithmes de reconnaissance associés. Ensuite, nous présenterons
des solutions au problème d'ordonnancement cité plus haut sur ces nouvelles
classes de graphes.
* * *
1 juin 2006 à 14 heures
salle FO6, IUT de Metz
The Splicing Operation on words and languages
par
K. G. Subramanian
Christian College, Madras
The operation
of Splicing was introduced by Head (1987) while modelling the behaviour
of DNA molecules under certain recombinant behaviour. This gave rise to
a new operation in formal language theory. Subsequently theoretical studies
on splicing have been made by many researchers in language theory giving
rise to a rich theory of different splicing systems on linear words, circular
words, images and so on. In this talk it is proposed to make a survey of
some of these in the context of formal language theory.
* * *
18 mai 2006 à 14 heures
salle FO6, IUT de Metz
Window subsequence for compressed texts
par
Patrick Cegielski
Université Paris XII
Given two
strings (a text t of length n
and a pattern p ) and a natural number w,
window subsequence problems consist in deciding
whether p occurs as a subsequence of t
and/or finding the number of size (at most) w windows
of text t which contain pattern p
as a subsequence, i.e. the letters of pattern p occur in the text window, in the same order as in p, but not necessarily consecutively (they may be interleaved
with other letters). We are searching for subsequences in a text which
is compressed using Lempel-Ziv-like compression algorithms, without decompressing
the text, and we would like our algorithms to be almost optimal, in the
sense that they run in time O(m) where m
is the size of the compressed text. The pattern is uncompressed (because
the compression algorithms are evolutive: various occurrences of a same
patterns look different in the text).
* * *
2 février 2006 à 14 heures
salle FO6, IUT de Metz
Automates cellulaires et modélisation : quels sont les effets de l'asynchronisme ?
par
Nazim Fates
LORIA
Les automates
cellulaires sont une classe de systèmes dynamiques discrets qui sont fréquemment
utilisés pour modéliser des systèmes complexes dans lesquels la dynamique
est spécifiée de façon locale. Dans leur acception classique, les automates
cellulaires sont définis sur une grille régulière et avec un synchronisme
parfait des transitions. Néanmoins, ces deux hypothèses ont peu de chances
de représenter fidèlement ce qui se déroule à une échelle microscopique.
Nous nous interrogeons donc sur la capacité des automates cellulaires
à garder leur comportement lorsqu'ils sont soumis à de petites pertubrations
de synchronisme. Nous présenterons des résulats qui se basent sur des
simulations numériques et sur des résultats analytiques issus de la théorie
des processus stochastiques.
* * *
26 janvier 2006 à 14 heures
salle FO6, IUT de Metz
Symport/antiport ou la puissance de la communication.
par
Serghei Verlan
Université de Paris XII
Symport/antiport
est un mécanisme de transport intermembranaire dans les cellules vivantes.
Nous le présentons brièvement et nous montrons sa formalisation à l'aide
de la théorie des langages formels. Ensuite, nous montrons des résultats
inattendus concernant la puissance d'expression et de modélisation du
modèle obtenu.
* * *
19 janvier 2006 à 14 heures
salle FO6, IUT de Metz
Présentation des problèmes de maximisation des multiflots entiers et
de minimisation des multicoupes : étude du cas particulier des grilles.
par
Marie-Christine Costa
Cnam, Paris
Soit G =
(V, E) un graphe dont les arêtes sont pondérées par des entiers positifs
et une liste de K paires {source, puits} de sommets. Le problème du mulitflot
entier consiste à maximiser la somme des flots entiers routés entre chaque
paire de sommets tout en respectant les contraintes de capacité sur les
arêtes. Le problème de la multicoupe consiste à sélectionner un ensemble
d'arêtes de poids total minimal de façon à séparer chaque paire de
sommets. Si K = 1 on retrouve un problème de max flot-min coupe qui se
résout simplement mais les deux problèmes sont connus pour être NP-difficiles
pour K > 1 sauf dans des cas très particuliers. De nombreux articles,
souvent très récents, traitent de ces problèmes qui ont des applications,
par exemple, en télécommunications ou routage.
Dans cet
exposé nous commencerons par définir les problèmes et plusieurs cas
particuliers comme le problème de la coupe multiterminaux ou celui de
la recherche de K chemins de longueur totale minimale sous contraintes
de capacité. Nous donnerons une modélisation mathématique des problèmes
et nous mettrons en évidence la relation de dualité qui existe entre
multiflot et multicoupe. Cette dualité est utilisée dans la résolution
des problèmes et l'une de ses conséquences est la « condition de coupe
» : la capacité de toute multicoupe est supérieure à la valeur de tout
multiflot.
Nous présenterons
ensuite les résultats connus concernant la complexité, l'approximation
et la résolution de ces problèmes: ces résultats dépendent de divers
paramètres comme le type de graphe considéré ou le nombre et la situation
des sources et des puits. Nous verrons que l'orientation du graphe est
un facteur important dans l'analyse de la difficulté d'un problème.
Dans la
deuxième partie de l'exposé, nous traiterons le cas particulier des grilles
et nous présenterons un algorithme polynomial dans les grilles uniformes.
Ce cas est particulièrement intéressant pour plusieurs raisons : à cause
de ses applications, parce que la résolution utilise la dualité et des
résultats importants de d'Okamura et Seymour et de Frank et enfin parce
qu'il est à la frontière entre les cas « faciles » et « difficiles
».
Nous n'abordons
ni les problèmes continus, ni ceux avec des coûts ni le problème des
flots concurrents mais nous remarquerons que la recherche d'un multiflot
qui satisfait des demandes et la recherche d'un multiflot maximal borné
pas des demandes sont en fait des problèmes généraux de maximisation
de multiflot.
* * *
9 décembre 2004 à 14 heures
salle FO6, IUT de Metz
Making Cortically-Inspired Sensorimotor Control Realistic for Robotics
Design of an Extended Parallel Cellular Programming Model
par
Stéphane Vialle
Supelec, Metz
This seminar
will introduce a multi-layer software architecture, that allows smart design
and implementation of complex cortical neural networks, and efficient parallel
execution on multiprocessor machines. The developer implements cortical
networks sticking to their natural fine grained formalism, without caring
about its mapping on coarse grained parallel computers. The developer can
use a set of graphical tools to easily develop and debug the cortical systems.
Some experiments
of new cortical model design on multiprocessor PCs are introduced, and
some performance measurements are given. This software suite is operational
and currently in use in our laboratory to control a robotic arm through
cortical neural networks running on multiprocessor PCs.
* * *
2 décembre 2004 à 14 heures
salle FO6, IUT de Metz
Une théorie des codes dans les sous-monoïdes du monoïde libre
par
Jean Néraud
LIFAR, Université de Rouen
Un sous-ensemble
X du monoïde libre A* est un
code à longueur variable
(ou, plus simplement, un
code) si tout mot de X*
(l'ensemble des produits de mots de X) se factorise en fait de façon unique
comme concaténation de mots de X.La théorie classique des codes est
constituée par de nombreux résultats tout aussi importants que difficiles
à établir, comme l'illustre l'ouvrage de J. Berstel et D. Perrin « Theory
of Codes » (Academic Press, 1985). Un des résulats les plus célèbres
dans ce domaine, dû à M. P. Schützenberger, stipule l'équivalence,
pour une large classe de codes contenant les codes
rationnels,
entre les deux notions suivantes :
-
– la maximalité en tant que code (au sens de l'inclusion) ;
-
– le fait que tout mot de A* puisse être facteur d'un mot de X*.
Cette propriété est appellée densité de
X* dans A*, ou encore complétude de X.
Un certain
nombre d'auteurs se sont préoccupés de l'extension de ces résultats
à un contexte de localité : un tel point de vue apparaît en effet implicitement
présent dans le contexte de la dynamique symbolique. De par son algébricité,
le concept de code dans un sous-monoïde de A* apparaît paticulièrement
bien adapté. Nous relaterons quelques-uns des résultats que nous avons
obtenus ces dernières années, en développant le plus récent, qui énonce
une formule de complétion dans le cadre des sous-monoïdes rationnels.
Les preuves de ces résultats permettent d'établir, dans un contexte plus
général, ceux de la théorie classique.
* * *
25 novembre 2004 à 14 heures
salle FO6, IUT de Metz
Activités du thème IHM de l'équipe CMI du LITA
par
Benoît Martin
LITA, Université Paul Verlaine - Metz
Cet exposé
a pour but de présenter les activités du thème IHM de l'équipe CMI
du LITA. En premier lieu, les activités passées seront très brièvement
abordées afin de comprendre l'évolution des travaux. En second lieu,
toutes les activités du thème seront présentées à travers différents
résumés: multi-modalité, géométrie hyperbolique et info-mobilité.
L'objectif de cet exposé est de mieux comprendre l'activité du thème
IHM mais également de susciter d'éventuelles collaborations au sein du
LITA. Le contenu sera volontairement général afin de pouvoir présenter
l'ensemble des activités. D'autres exposés pourront être proposés afin
d'approfondir une partie ou une autre.
* * *
18 novembre 2004 à 14 heures
salle FO6, IUT de Metz
Sur la décomposition 2-join
par
Michaël Rao
LITA, Université Paul Verlaine - Metz
La décomposition
modulaire est une décomposition de graphe très connue et très utilisée.
Elle est basée sur la notion de « module ». Cette notion de module peut
être généralisée à la notion de « split », et on peut définir la
décomposition split, qui est une généralisation de la décomposition
modulaire. Fabien de Montgolfier a montré que l'on peut également généraliser
la définition du module à celle d'un « 2-join ».
Un 2-join
dans un graphe G=(V,E) est une partition {V1,V2} de V telle qu'il existe
W1 sous-ensemble de V1 et W2 sous-ensemble de V2 tels que les arêtes dans
le graphe entre V1 et V2 soient les arrêtes entre W1 et W2 ou entre V1\W1
et V2\W2.
* * *
4 novembre 2004 à 14 heures
salle FO6, IUT de Metz
"Descente Infinie" Induction Principle and Saturation-based Theorem Provers
par
Sorin Stratulat
LITA, Université Paul Verlaine - Metz
I present
a uniform representation and a methodology for building induction provers
based on the Fermat's "descente infinie" induction principle. In a previous
talk, I have presented an example of using this principle to build implicit
induction provers, like Spike and QuodLibet.
In this
talk, I present a methodology to design inference systems for saturation-based
theorem provers that has the advantage to make a clear separation between
logic and computation. Firstly, I introduce an abstract inference system
defining the available set of induction hypotheses, i.e. the not-yet certified
information that can be safely used during the reasoning process. Its
inference rules are then instantiated modularly with different reasoning
techniques in order to obtain concrete procedures, as it is shown for a
couple of existing inference systems.
* * *
7 avril 2005 à 14 heures
salle FO6, IUT de Metz
Pourquoi est-il si difficile de prouver qu'un problème a une borne inférieure
de complexité ? Un point de vue logique
par
Étienne Grandjean
GREYC, université de Caen
L'un des
objectifs premiers de la complexité algorithmique est d'analyser en quoi
beaucoup de problèmes naturels sont intrinsèquement difficiles à résoudre.
Qu'en est-il actuellement de cet objectif dans les faits ? Quoique l'on
soupçonne que la classe si importante des problèmes NP-complets est formée
de problèmes non polynomiaux (la conjecture NP≠P) ou même exponentiels,
on ne sait toujours pas prouver pour aucun problème NP-complet naturel
aucune borne inférieure de complexité non triviale (non linéaire en
temps) sur aucun modèle de calcul de portée générale (de type RAM).
Dans cet
exposé, on donnera quelques résultats expliquant, de notre point de vue,
cette difficulté étonnante à prouver des bornes inférieures de complexité :
-
– la grande majorité des problèmes NP-complets naturels sont dans
NLIN (sont reconnaissables en temps non déterministe linéraire) ;
-
– beaucoup de ces problèmes sont même encore plus faciles :
-
certains problèmes de graphes (exemples : cycle hamiltonien et
non planarité) sont reconnus sur RAMs en temps non déterministe
linéaire O(n) en le nombre n de sommets du graphe concerné, donc
indépendamment de son nombre d'arètes ;
-
d'autres problèmes (Sac à dos, Clique, etc) sont résolubles
par RAMs en temps linéaire O(n) et espace sous-linéaire O(√n)
(et donc en temps déterministe sous-exponentiel 2O(√n) ;
-
enfin, divers problèmes NP-complets paramètrés classiques, typiquement
k-Vertex-cover (recouvrement d'un graphe par k sommets), sont résolubles
en temps polynomial, et souvent linéaire, en utilisant seulement
un nombre limité f(k) de pas non déterministes, c'est-à-dire
un nombre de pas non déterministes dépendant du paramètre k,
mais indépendant de la taille de la donnée.
Enfin, on
montrera comment sur tous ces points (résultats de complétude, bornes
inférieures ou bornes supérieures de complexité), la logique (sur les
structures finies) joue un rôle essentiel. On décrira quelques résultats
(très partiels) en matière de bornes inférieures.
* * *
31 mars 2005 à 14 heures
salle FO6, IUT de Metz
Kimberling's sequence revisited
par
Gencho Skordev
Université de Breme
Clark Kimberling
defined in Journal of Integer Sequences (2000) a set S of positive integers
as follows:
-
1 belongs to S;
-
if the positive integer x belongs to S, then
2x and 4x-1 belong
to S;
-
S is the smallest set of positive integers with these properties.
Hence S = (s
n)
nwritten
in the natural order is:
1, 2, 3, 4, 6, 7, 8, 11, 12, 14, 15, 16...
An unexpected relation of this sequence with the Fibonacci word (f
n)
nwas found by Kimberling:
Theorem (sn+1modulo 2)n=
(fn)n.
Remind that the Fibonacci word is the fixed point of the morphism (substitution)
m on the two letter 0, 1 alphabet: m(0) = 01, m(1) = 0. An explanation,
new proof and a general framework of this theorem is proposed.
* * *
24 mars 2005 à 14 heures
salle FO6, IUT de Metz
Des modèles de mélange aux cartes auto-organisatrices pour la fouille
de données visuelle
par
Priam Rodolphe
Université de Rennes
Le traitement
statistique des échantillons de données multimédia, génomique et web
requiert de nouvelles méthodes exploratoires adaptées à leurs grandes
dimensions. Le modèle de mélange exprime élégamment sa puissance et
sa flexibilité en analyse des données puisqu'il donne des résultats
particulièrement pertinents pour la classification automatique. Nous étudions
le modèle de mélange par ses variantes auto-organisées : les lois du
mélange y sont contraintes afin que leurs moyennes forment une surface
discrète sur laquelle se projettent les données.
L'exposé
s'articule comme suit. Nous posons le cadre du modèle de mélange de lois
ainsi que son estimation par algorithme EM (Expectation-Maximization) et
son application en classification. Nous présentons les méthodes de visualisation
à base de mélange en nous centrant sur la famille des cartes auto-organisatrices
(Kohonen), et notamment le cas des tableaux de contingence et de leur double
représentation lignes/colonnes. Nous illustrons les méthodes sur des
données réelles et donnons des perspectives détaillées.
* * *
17 mars 2005 à 14 heures
salle FO6, IUT de Metz
Graphes parfaits et coloration des sommets d'un graphe
par
Hacene Ait Haddadene
Faculté de Mathématiques, Alger
L'introduction
des graphes parfaits remonte au début des années soixante à l'époque
où C.Berge a introduit ce concept en s'intéressant aux travaux de C.Schannon
en théorie de l'information sur la capacité d'un canal de communication.
Le problème
de coloration des sommets d'un graphe est NP-complet, donc on ne connaît
pas à ce jour d'algorithme en temps polynomial permettant de le résoudre
à coup sûr. Ce problème devient polynomial dans le cas des graphes parfaits
. Bien que polynomial, cet algorithme de Grötschell, Lovasz et Schrijver
n'est pas efficace sur le plan pratique. En plus de sa complexité semblant
être très élevée, cet algorithme ne permet pas de comprendre la structure
combinatoire des graphes parfaits. D'où l'intérêt de rechercher de simples
algorithmes combinatoires pour ce problème.
Dans cet
exposé, nous allons essayé de présenter l'historique du cheminement
de l'étude des graphes parfaits et son lien avec le problème de la coloration
des sommets d'un graphe. Particulièrement, notre contribution dans ce
cadre ainsi que certains liens seront présentés.
* * *
10 mars 2005 à 14 heures
salle FO6, IUT de Metz
Vérification de propriétés temporelles reconsidérée
par
Stephan Merz
LORIA
L'algorithme
classique pour la vérification de formules en logique temporelle par rapport
à de systèmes de transitions consiste en deux phases : d'abord on construit
un automate de Büchi qui correspond à la négation de la formule à vérifier,
puis on cherche à détecter certains cycles dans le produit du système
de transitions et de l'automate obtenu. La génération de l'automate de
Büchi est d'une complexité exponentielle (PSPACE), tandis que la vérification
est linéaire dans la taille du produit, et est souvent faite « à la
volée », c'est-à-dire sans jamais calculer le produit de forme explicite.
Dans cet exposé je vais présenter un nouvel algorithme qui permet d'entrelacer
ces deux étapes. Dans cette approche, la formule en logique temporelle
est traduite en un automate alternant faible (en complexité linéaire
de la taille de la formule) dont le graphe des configurations correspond
à un automate de Büchi généralisé. La vérification se base ensuite
sur une version de l'algorithme de Tarjan et construit le graphe de configurations
(de taille exponentielle) à la volée. Cette démarche évite la construction
explicite d'un automate de Büchi ce qui peut entraîner de gains significatifs
en temps d'exécution et en mémoire quand la formule à vérifier est
de grande taille. L'algorithme a été implémenté au sein du vérificateur
SPIN ce qui nous permet de valider notre approche.
* * *
3 mars 2005 à 14 heures
salle FO6, IUT de Metz
Critiques des modèles de langage statistique
par
Kamel Smaili
LORIA
Dans cet
exposé nous montrons les limites des modèles de langage statistique utilisés
actuellement dans les systèmes de reconnaissance de la parole. Nous proposerons
ensuite quelques pistes et quelques solutions originales pour pallier les
insuffisances de ces modèles.
* * *
10 février 2005 à 14 heures
salle FO6, IUT de Metz
Graph homomorphisms with local constraints
par
Jan Kratochvil
Charles University, Prague
A homomorphism
between two graphs is a vertex mapping which preserves edges, and hence
neighborhoods of vertices. We will show that imposing further local constraints
(bijectivity, injectivity or surjectivity) leads to notions that have been
studied before, from different points of view and for different motivations.
These will be both theoretical (graph covers stemming from topological
graph theory) and practical (distance constrained labellings stemming from
the very practically motivated frequency assignment problem). Algorithmic
and computational complexity issues will be discussed.
* * *
27 janvier 2005 à 14 heures
salle FO6, IUT de Metz
Adaptation de maillage anisotrope pour des applications en mecanique des
fluides
par
Pascal Frey
Université Pierre et Marie Curie
L'adaptation
de maillages permet d'améliorer la convergence des algorithmes numériques
ainsi que la précision des solutions numériques dans de nombreuses applications
de calcul scientifique. Cette technique repose sur plusieurs composantes
qui seront présentées : estimateur d'erreur a posteriori, métriques
anisotropes et méthodes de maillages adaptatives. Des exemples de calculs
en mécanique des fluides viendront étayer ces résultats théoriques.
* * *
13 janvier 2005 à 14 heures
salle FO6, IUT de Metz
Subexponential parameterized algorithms
par
Fedor Fomin
Université de Bergen
Parameterized
algorithms have been introduced in the nineties by Downey and Fellows as
another attack against NP-hard problems. The basic idea is that a (natural)
parameter has to be part of the problem input and the question is whether
there is an efficient algorithm to solve the problem assuming that the
parameter has a fixed value. By now "parameterized algorithms" has become
one of the important domains in "algorithms". In the talk we discuss some
of the results from Robertson-Seymour Graph Minors Project and recent techniques
for obtaining subexponential parameterized algorithms.
* * *
6 janvier 2005 à 14 heures
salle FO6, IUT de Metz
Calculer géométriquement sur le plan
par
Jérôme Durand-Lose
Université d'Orléans
Cet exposé
se place dans l'étude des modèles du calcul continus. Nous y montrons
que la géométrie plane permet de calculer. Nous définissons un calcul
géométrique et utilisons la continuité de l'espace et du temps pour
stocker de l'information au point de provoquer des accumulations et atteindre
une autre puissance de calcul.
Dans le
monde des automates cellulaires, on parle souvent de particules ou de signaux
(qui forment des lignes discrètes sur les diagrammes espace-temps) tant,
pour analyser une dynamique que, pour concevoir des automates cellulaires
particuliers. Le point de départ de nos travaux est d'envisager des versions
continues de ces signaux. Nous définissons un modèle de calcul continu,
les machines à signaux, qui engendre des figures géométriques suivant
des règles strictes. Ce modèle peut se comprendre comme une extension
continue des automates cellulaires.
L'exposé
commence par une présentation des automates cellulaires et la mise en
avant d'exemples de particules/signaux tirés de la littérature. De là,
nous abstrayons le modèle, les machines à signaux.
Dans un
premier temps, nous montrons comment tout calcul au sens de Turing (par
la simulation de tout automate à deux compteurs) peut y être mené. Nous
montrons également comment modifier une machine de manière à réaliser
des transformations géométriques (translations, homothéties) sur les
diagrammes engendrés. Nous construisons également les itérations automatiques
de ces constructions de manière à contracter le calcul à une bande (espace
borné) puis, à un triangle (temps également borné).
Dans un
second temps, nous nous intéressons aux points d'accumulation. Nous montrons
que la prévision de l'apparition d'une accumulation est indécidable.
Ce problème est même Σ20-complet (hiérarchie
arithmétique), en construisant pour tout automate à deux compteurs une
machine à signaux et une configuration initiale simulant l'automate pour
toutes les valeurs possibles.
Avec quelques
exemples, nous montrons l'existence d'accumulations, non pas en un point,
mais sur un segment ou un Cantor. Nous introduisons alors une restriction
sur les règles assurant qu'il ne peut y avoir que des accumulations sur
des points isolés. Il est toujours possible de mener tout calcul malgré
cette contrainte. Par ailleurs, les accumulations sont « propres »,
ce qui permet d'avoir une capacité de calcul semblables à celles sur
les ordinaux ou de l'utilisation d'un « trou noir » (infinité d'itérations
pendant une durée finie bornée).
* * *
19 décembre 2002 à 14 heures
salle FO6, IUT de Metz
Automates sur les ordres linéaires
par
Véronique Bruyère
Université de Mons
Dans cet
exposé, on parlera d'automates acceptant des mots indicés par des ordres
linéaires. Ces automates sont des objets simples, qui généralisent de
façon naturelle les automates sur les mots finis, les mots infinis, les
mots bi-infinis et les mots indicés par des ordinaux.
Les langages
de mots acceptés par ces automates sont aussi les langages décrits par
des opérations rationnelles bien choisies (Théorème à la Kleene). Celles-ci
généralisent les opérations rationnelles connues par les mots indicés
par les ordinaux.
Grâce à
des exemples clairs, on présentera ces automates et les opérations rationnelles
associées. On présentera aussi une hiérarchie où les langages sont
classés selon les opérations rationnelles utilisées pour les décrire.
Chaque classe sera caractérisée par des automates particuliers et par
des ordres particuliers.
Cette recherche a été faite en collaboration avec Olivier Carton (IGM,
Marne-la-Vallée).
* * *
12 décembre 2002 à 14 heures
salle FO6, IUT de Metz
Complexity Hierarchies on Turing Machines and Cellular Automata
par
Chuzo Iwamoto
Université d’Hiroshima - Université de Metz
It is known
that a slight increase of a time or space bound yields a new complexity
class: For any computable functions t
1(n) and
t
2(n) such that:
-
t2(n)≠O(t1(n));
-
t2(n)-space Turing machines (TMs) are strictly
more powerful than t1(n)-space TMs;
-
t2(n)·log(t1(n))-time
TMs are strictly more powerful than t1(n)-time
TMs.
In this talk, we present an improved space-hierarchy theorem for TMs with
restricted tape symbols. We also present time-hierarchy theorems based
on cellular automata in the Euclidean and hyperbolic planes.
* * *
5 décembre 2002 à 14 heures
salle FO6, IUT de Metz
Deux modèles de calcul (bio)moleculaire
par
Serghei Verlan
Université de Metz
Les calculs
moléculaires sont un nouveau paradigme de calcul qui utilisent les manipulations
de (bio)molécules pour résoudre des problèmes de calculabilité.
L'idée principale de cette approche est qu'on code des données dans des
molécules, particulièrement dans les molécules d'ADN, et qu'on utilise
après des techniques de chimie et de biologie moléculaire pour effectuer
des opérations calculatoires.
Afin de modéliser le processus, plusieurs modèles de calcul ont été
proposés et étudiés du point de vue de leur puissance de calcul et de
la possibilité de les réaliser en laboratoire.
Dans l'exposé proposé, on s'intéresse plus particulièrement à deux
de ces modèles, les « systèmes distribués à changement de phase »
créés récemment par Gh. Paun, les « systèmes distribués à changement
de phase étendus » introduits par M. Margenstern et Yu. Rogozhin.
* * *
28 novembre 2002 à 14 heures
salle FO6, IUT de Metz
Décomposition modulaire de graphes et problèmes NP-complets
par
Michaël Rao
Université de Metz
La décomposition
modulaire est une décomposition d'un graphe, qui peut être representée
par un arbre enraciné, où chaque noeud a une étiquette et éventuellement
un graphe associé. Cette décomposition a été très étudiée, et il
existe des algorithmes linéaires pour la calculer.
On veux se servir de la décomposition modulaire dans le but de résoudre
efficacement des problèmes NP-complets sur certaines classes de graphes.
On verra dans un premier temps quels sont les sous problèmes à résoudre
sur les nœuds de l'arbre de décomposition modulaire pour certains problèmes.
Ensuite nous verons une application de cette méthode à la classe des
graphes sans P5 et gems induits, dont on a une
caractérisation des graphes dans l'arbre de décomposition modulaire.
* * *
21 novembre 2002 à 14 heures
salle FO6, IUT de Metz
Algorithmes qui donnent des certificats pour la reconnaissance de graphes
d'intervalles et de graphes de permutation
par
Dieter Kratsch
Université de Metz
Un certificat
est une pièce justificative pour montrer que la sortie d'un algorithme
n'était pas altérée par un bug dans une implémentation de l'algorithme.
On cherche des algorithmes pour un problème de décision qui donnent un
certificat pour la réponse « oui » et aussi un certificat pour la
réponse « non » sans prendre plus de temps que le meilleur algorithme
(sans certificat) connu.
On présente
un algorithme linéaire pour la reconnaissance des graphes d'intervalles
qui donnent comme certificat un modèle d'intervalles (oui) et un triple
astéroidal (non). On présente un algorithme linéaire pour la reconnaissance
des graphes de permutation qui donnent comme certificat une permutation
(oui) et un « chemin transposé » (non). Les certificats pour « oui »
sont standard. Nos certificats pour « non » peuvent être authentifiés
en un temps O(n), c'est-à-dire que l'authentification se fait plus vite
que la reconnaissance.
Tous les precedents algorithmes de reconnaissance pour les deux classes
de graphes connu n'arrivent pas à donner des certificats pour « oui »
et « non ».
* * *
14 novembre 2002 à 14 heures
salle FO6, IUT de Metz
Recherche de complexité dans les automates cellulaires grâce aux algorithmes
évolutionnaires
par
Emmanuel Sapin
Université de Bourgogne
Cet exposé
présente une approche évolutionnaire de la recherche d'automates cellulaires
complexes au sens de Wolfram. A l'aide d'un système de classification
automatique, nous avons isolés plusieurs automates cellulaires complexes
à deux dimensions. D'après les critères proposés par Wolfram, ces automates
ne pouvent être considérés comme appartenant aux classes 1, 2 ou 3.
Pourtant, contrairement au jeu de la vie, la plupart d'entre eux ne produisent
pas spontanément de glisseurs à partir d'amas de cellules générés
aléatoirement avec densité 1/2. A l'aide d'un algorithme génétique,
nous avons fait évoluer ces automates dans le but de faire émerger de
nouveaux automates à deux dimensions supportant des glisseurs. Nous avons
obtenus non seulement des automates ayant le comportement recherché, mais
également des automates supportant des canons à glisseurs. Ces résultats
montrent que l'algorithmique évolutionnaire peut s'avérer efficace pour
la recherche d'automates cellulaires ayant des comportements spécifiques.
Nous estimons que l'approche proposée est une piste prometteuse pour la
recherche de nouveaux automates cellulaires ayant, à l'instar du jeu de
la vie, la propriété d'être des calculateurs universels. Nous proposerons
des perspectives de recherche allants dans ce sens.
* * *
7 novembre 2002 à 14 heures
salle FO6, IUT de Metz
Rough sets, une approche de la fouille de données
par
Éric Sanjuan
IUT de Metz
Introduite
à l'origine par Z. Pawlak pour optimiser les très larges systèmes de
gestion de bases de données relationnelles, la théorie des ensembles
d'approximation s'applique aujourd'hui naturellement à la fouille de données.
L'exposé comprendra trois courtes parties correspondant chacune à un
aspect de cette théorie :
-
nous rappellerons d'abord la définition originale des ensembles d'approximation
ainsi que leur structure algébrique multivaluée. Nous montrerons
comment l'étude de ces algèbres permet de définir des langages d'interrogation
souple de bases de données.
-
nous introduirons ensuite les notions de système d'information et
de décision considérés par cette théorie ainsi que les méthodes
qu'elle propose d'extraction de connaissances (règles de classification
et d'association). Usuellement présentées en termes de recherche
d'implicants premiers, les algorithmes utilisés s'énoncent plus naturellement
dans la théorie des hypergraphes.
-
enfin nous aborderons la notion d'espace de dépendance introduite
par Pawlak et Novotny, que l'on peut facilement rattacher à la notion
classique de dépendance fonctionnelle. Nous présenterons alors de
manière très simple le théorème de Guigues et Duquenne sur les
bases des systèmes de fermeture (ou des treillis de Galois). Ce théorème
issu d'une autre approche de la fouille des données, permet en effet
de résumer dans le cas fini, l'ensemble des dépendances exactes en
un sous-ensemble réduit, unique et sans redondances.
* * *
24 octobre 2002 à 14 heures
salle FO6, IUT de Metz
Complexité intentionnelle du langage LOOP
par
Pierre Valarcher
Université de Rouen
On étudit
le langage LOOP du point de vue de son pouvoir algorithmique. On cherche
à répondre à la question: y a t'il des algorithmes non programmable
alors que la fonction est représentable dans un tel langage ? On répond
positivement en étudiant l'algorithme du minimum de deux entiers.
* * *
10 octobre 2002 à 14 heures
salle FO6, IUT de Metz
Formules 2-CNF insatisfaisables minimales
par
Christian Choffrut
Université Paris 7
Une conjonction
de clauses (une formule CNF) est insatisfaisable si il n'existe aucune
affectation de variables qui la rende vraie. De plus, elle est insatisfaisable
minimale si la suppression de l'une quelconque de ses clauses la rend satisfaisable.
Le problème de déterminer si une formule CNF donnée est insatisfaisable
minimale est DP-complet où DP représente toutes les intersections d'un
problème dans NP d'un problème coNP. Récemment, il a été prouvé que
si la différence entre le nombre de clauses et le nombre de variables
était fixé, le problème devenait polynomial.
Nous étudions
le cas plus simple des formules 2-CNF (toutes les clauses sont des disjonctions
d'au plus deux littéraux) pour lesquelles le problème d'insatisfaisabilité
est complet dans NL. Nous montrons que les formules 2-CNF insatisfaisables
minimales avec n variables ont au moins n + 1 clauses (ce qui est bien
connu et en fait général quelque soit la taille de chaque clause) et
au plus 2n clauses. Nous caractérisons les formules 2-CNF insatisfaisables
minimales avec un nombre maximal de clauses, (donc 2n clauses). Dans une
autre direction, c'est-à-dire en étudiant les formules 2-CNF insatisfaisables
minimales de taille minimale, nous introduisons une notion de simplification
de formules 2-CNF qui nous permet d'éliminer les variables qui apparaissent
exactement une fois postivement et une fois négativement et nous montrons
qu'il existe pour tout entier pair de variables, disons sur 2n variables,
une unique 2-CNF insatisfaisable minimale ayant un nombre minimal de clauses
et qui possèdent exactement 3n clauses. Enfin, nous donnons un algorithme
linéaire qui décide si une formule 2-CNF donnée est insatisfaisable
minimale.
* * *
20 mars 2003 à 14 heures
salle FO6, IUT de Metz
Graphes dynamiques pour les systemes pair-a-pair
par
Pierre Fraigniaud
LRI, Orsay
A content-addressable
network (CAN) is a distributed lookup table that can be used to implement
peer-to-peer (P2P) systems. A CAN allows the discovery and location of
data and/or resources, identified by keys, in a distributed network (e.g.,
Internet), in absence of centralized server or any hierarchical organization.
Several networks have been recently described in the literature, and some
of them have led to the development of experimental systems. We present
a new CAN, called D2B. Its main characteristics are: simplicity, provability,
and scalability. D2B allows the number of nodes n to vary between 1 and
|K| where K is the set of keys managed by the network. In term of performances,
any join or leave of a user implies a constant expected number of link
modifications, and, with high probability (w.h.p.), at most O(log(n)) link
modifications. The latency of a lookup routing is O(log(n)), w.h.p., in
the sense that a key is at most O(log(n)) hops away from a consumer. A
join involves key redistribution among two nodes (which is the minimum
possible), including the node joining the system. Similarly, a leave involves
key redistribution among at most three nodes. The set of keys is fairly
distributed among nodes, in the sense that every node is responsible for
an expected number of |K|/n keys, and, w.h.p., O(|K|·log(n)/n) keys. The
traffic load incurred by lookup routing is also fairly distributed, and
the expected congestion of a node is O(log(n)/n). Finally, a parameter
d allows a trade-off between the degree of the network, which increases
linearly with d, and the diameter of the network, which decreases logarithmically
with d. Hence, a large d allows faster lookup routing, at the price of
a slight increase of the latency for joining and leaving the network. We
believe that these properties make D2B currently the most promising network
for a practical and efficient use of CANs.
* * *
13 mars 2003 à 14 heures
salle FO6, IUT de Metz
Programmation par réécriture de multi-ensembles
par
Jean-Pierre Banâtre
Université de Rennes I
Le modèle
Gamma a été proposé il y a une quinzaine d'années comme un formalisme
permettant de construire des programmes sans séquentialité artificielle.
La structure de donnée essentielle est le multi-ensemble et la structure
de contrôle de base opère comme un transformateurde multi-ensembles.
Fondamentalement, le modèle peut être vu comme l'évolution globale d'une
collection de valeurs atomiques interagissant de manière assez libre.
Intuitivement,
Gamma est souvent introduit via la métaphore de la réaction chimique.
L'unique structure de données (le multi-ensemble) peut être vu comme
une solution chimique. Un programme est une paire (condition de réaction,
action). L'exécution consiste à remplacer les éléments satisfaisant
la condition de réaction par les éléments produits par application de
l'action. Le résultat est obtenu lorsqu' aucune réaction n'est plus possible
(un état stable est atteint).
Gamma a
été une source d'inspiration très riche dans un nombre de domaines assez
inattendus tels que le développement de programmes parallèles, le calcul
de processus, les architectures logicielles, etc.
Notre exposé va passer en revue le concept de multi-ensemble, faire un
historique du formalisme Gamma et présenter plusieurs exemples de programmes
développés dans ce cadre.
* * *
20 février 2003 à 14 heures
salle FO6, IUT de Metz
Une métaphore topologique pour un langage de simulation non-conventionnel
et son application à la simulation de processus biologiques
par
Jean-Louis Giavitto
Université d’Evry
Dans ce
travail, nous proposons d'aborder la notion de programme sous un point
de vue topologique : un calcul consiste à spécifier un chemin dans un
certain espace et à associer des actions élémentaires à chaque étape
de ce déplacement. Cette nouvelle approche est mise en oeuvre dans un
langage de programmation expérimental appelé MGS et dédié à la simulation
de processus biologique.
MGS introduit
la notion de collection topologique : un ensemble de valeurs organisées
par une relation de voisinage permettant de définir une notion de chemin
et de sous-collection. Le mécanisme de calcul est la transformation :
une transformation consiste à sélectionner une sous-collection définie
par un chemin C dans une collection A, et à le remplacer par une nouvelle
sous-collection B = f(A, voisins(A)).
Le changement
de la structure topologique de la collection permet de faire varier le
modèle de calcul sous-jacent. MGS permet ainsi de présenter de manière
unifiée dans le même langage de programmation plusieurs modèles de calculs
développés indépendamment comme la réécriture de multi-ensembles (Gamma,
CHAM et système de Paun), la réécriture de mots (système de Lindenmayer)
ou les automates cellulaires.
Dans cette présentation nous évoquerons plusieurs applications, en particulier
en relation avec des problèmes de modélisation en biologie.
* * *
6 février 2003 à 14 heures
salle FO6, IUT de Metz
Self-Assembling Finite Automata and Grammars with Scattered Nonterminals
par
Martin Kutrib
Université de Giessen
A self-assembling
finite automaton is assembled on demand during its computation from copies
out of a finite set of items. The items are pieces of a finite automaton
which are connected to the already existing automaton by overlaying states.
Depending on the allowed number of such interface states, the degree, infinite
hierarchies of properly included language families are shown.
The model
is a natural and unified generalization of regular and context-free languages
since degrees one and two are characterizing the finite and pushdown automata,
respectively. Moreover, by means of different closure properties nondeterministic
and deterministic language families are separated.
Considering
grammars with scattered nonterminals which can be thought of as having
sentential forms where some instances of a nonterminal may be coupled,
we have a second approach that naturally extends the generative capacity
of context-free grammars. If the degree of synchronous rewriting is bounded,
then we obtain again an infinite hierarchy of separated language families.
It turned out that for certain types automata and grammars are matching.
* * *
30 janvier 2003 à 14 heures
salle FO6, IUT de Metz
MPEG4 Virtual Environment and mobility
par
Frédéric Vexo
École polytechnique de Lausanne
This talk
will provide an overview of several research and development projects which
deal with the production, the diffusion and the interaction of inhabited
virtual environment on low performance device or/and with low bandwidth
availability.
For example:
the new breed of Personal Digital Assistants (PDA) and mobile phones have
enough computing power to display 3D graphics. These new mobile devices
(handhelds) have some interesting communication and interaction possibilities
as well. Moreover, on a variety of devices a MPEG-4 compliant animation
engine (body player) has been designed to synthesize virtual human full-body
animations in interactive multimedia applications for the web. We believe
that a full-body player can provide a more expressive and interesting interface
than the use of animated faces only (talking heads). I will show one of
the first implementations of a MPEG-4 animation engine with deformable
models (it uses the MPEG-4 Body Definition Parameters and Deformation Tables).
Several potential applications are overviewed.
* * *
23 janvier 2003 à 14 heures
salle FO6, IUT de Metz
k-fermat cellular automata
par
Friedrich von Haeseler
Université de Louvain
In this
talk we introduce the class of k-fermat cellular automata (CA). Roughly
speaking is a k-fermat CA characterized by a certain self-similarity of
the time evolution of the CA. We discuss several different aspects of k-fermat
CA.
* * *
16 janvier 2003 à 14 heures
salle FO6, IUT de Metz
Algèbres de Hopf de fonctions symétriques et quasi symétriques
par
Gérard Duchamp
Université de Rouen
Les algèbres
de Hopf correspondent à deux opérations combinatoires extrêmement simples
et courantes. La première (le produit) est celui des fonctions selon une
« table de multiplication » comme celle des écoliers, la deuxieme
(le coproduit) à deux visages tout aussi élémentaires l'un que l'autre :
le premier est le « doublement des variables » que l'on connait bien
dans les formules d'addition, le second est celui des décompositions d'objets.
Nous montrerons en particulier comment cette idée simple nous a permis
de résoudre la question des éléments primitifs de l'algèbre de convolution
des permutations.
* * *
13 décembre 2001 à 14 heures
salle FO6, IUT de Metz
Sur la reconnaissance des sous-graphes induits
par
Daniel Meister
Université de Metz
Une classe
de graphe peut être décrite par quelques propriétés de ses membres
qui peuvent, quelquefois, être interprétées comme un ensemble de sous-graphes
induits interdits. Un algorithme de reconnaissance pour une telle classe
de graphes pourrait utiliser une déscription par des graphes induits interdits.
Une des classes les plus connues est la classe des cographes qui est égale
à la classe de tous les graphes non contenants un chemin induit à quatre
sommets (P4). La complexité d'un tel algorithme
de reconnaissance dépend essentiellement de la complexité de la reconnaissance
de quelques graphes induits.
L'exposé
donne la définition d'une certaine forme de difficulté pour comparer
la complexité de reconnaissance de deux graphes et montre quelques résultats
qui bornent la complexité de reconnaissance de certains graphes.
* * *
6 décembre 2001 à 14 heures
salle FO6, IUT de Metz
Ordering relations for q-boson operators
par
Gerard Duchamp
Université de Rouen
* * *
29 novembre 2001 à 14 heures
salle FO6, IUT de Metz
Sur les graphes sans P5 et sans gem
par
Dieter Kratsch
Université de Metz
En utilisant
la decomposition modulaire d'un graphe nous arrivons a presenter un theoreme
de caracterisation de classe de graphes sans P5 et sans gem. En effet nous
donnons une liste complete de tous les graphes premiers sans P5 et sans
gem.
En utilisant
notre theoreme de caracterisation on construit des algorithmes efficaces
pour la reconnaissance de graphes sans P5 et sans gem, et en plus pour
les problemes NP-complets Weighted Independent Set et Clique sur les graphes
sans P5 et sans gem.
* * *
22 novembre 2001 à 14 heures
salle FO6, IUT de Metz
Data Mining : Spécificités et Applications
par
Rico Rakotomalala
Université Lyon 2
Le terme
« Data Mining » est aujourd'hui galvaudé, mis à toutes les sauces
notamment dans le monde industriel. Notre objectif est de resituer la démarche
de l'Extraction de Connaissances à Partir de Données. Nous mettrons alors
en exergue ses spécificités par rapport aux domaines déjà connus telles
que la statistique : elles tiennent à la fois des sources de données
utilisées et des méthodes mises en oeuvre. Nous nous attarderons sur
quelques unes de ces méthodes. Enfin, nous développerons une application
typique de Data Mining, le « text mining », dans lequel une grande
partie de l'arsenal du Data Mining est mis à contribution. Le séminaire
sera conclu par une démonstration logicielle sur données artificielles
et réelles.
* * *
15 novembre 2001 à 14 heures
salle FO6, IUT de Metz
Sur les nombres d'Erdös-Woods
par
Patrick Cegielski
Université Paris XII
Un intervalle
[a,a+d] d'entiers naturels vérifie la propriéeté de n'avoir aucun élément
premier avec simultanément ses deux bornes, si aucun de ses éléments,
à savoir a+1, a+2, ..., a+d-1, n'est premier avec les deux extrémités
a et a+d. Nous montrons que l'ensemble des tels a et l'ensemble des tels
d sont récursifs. Un programme generant les premiers nombres conduit a
de nombreux problemes ouverts, proches de ceux poses par la suite des nombres
premiers.
* * *
8 novembre 2001 à 14 heures
salle FO6, IUT de Metz
Embeddings in k-connected graphs of pathwidth k
par
Andrzej Proskurowski
* * *
20 juin 2002 à 14 heures
salle FO6, IUT de Metz
Sur la largeur arborescente d'un graphe planaire et de son dual
par
Ioan Todinca
Université d'Orléans
Nous donnons
une preuve simple du résultat suivant, conjecturé par Robertson et Seymour
et prouvé par D. Lapoire : la largeur arborescente d'un graphe planaire
diffère de celle de son dual d'au plus une unité. Nous montrons que les
séparateurs minimaux d'un graphe planaire peuvent être vus comme des
courbes de Jordan. Une triangulation minimale (au sens des graphes triangulés,
i.e. sans cycle induit ayant quatre sommets ou plus) d'un graphe planaire
correspond à une famille de courbes de Jordan deux à deux parallèles.
Nous introduisons une notion de région-bloc formée par ces courbes et
nous montrons comment associer les cliques maximales de la triangulation
à des régions-bloc minimales. Ensuite, nous montrons comment à partir
d'une triangulation H du graphe construire une triangulation du dual dont
la largeur (la taille de la clique de cardinal maximum) dépasse celle
de H d'au plus un.
* * *
6 juin 2002 à 14 heures
salle FO6, IUT de Metz
De la classification de données textuelles à la recherche d'information:
une approche discrète
par
Éric Sanjuan
Université de Metz
Nous présentons
un système de recherche d'information (RI) des donnés textuelles qui
intègre les résultats d'une classification automatique. Dans ce système,
une requête est modélisée par un ensemble gradué de thèmes (les classes)
grâce à une généralisation de la notion d'ensemble d'approximation
(Rough Set), défini par Pawlak. Le plongement de ces ensembles gradués
dans une algèbres de Heyting permet de doter ce système d'un puissant
langage logique d'interrogation et de représentation des connaissances.
Ce système
RI a été expérimenté à l'unité de recherche de l'INIST (CNRS) sur
des donnés de classification obtenues avec NEURODOC, un logiciel de classification
automatique qui applique une variante de la méthode des k-means axial
introduite par Alain Lelu selon une approche Neuronale.
Cependant
ce système RI est aussi adapté à l'utilisation de résultats issues
d'autres méthodes. Nous présenterons ainsi une méthode originale, introduite
par Fidelia Ibekwe, de classification de données textuelles qui repose
sur la reconnaissance de relations linguistiques et le calcul d'un graphe
réduit de ces relations.
Références
-
R. Baeza-Yates, B. Ribeiro - Neto, Modern Information Retrieval, ACM
Press, Addison-Wesley, 1999, 510 p.
-
Z. Pawlak, Rough Sets, Theoretical Aspects of Reasoning about Data,
Kluwer, Dordrecht, 1991.
-
A. Lelu, Modèles neuronaux pour l'analyse de données documentaires
et textuelles, Thèse de doctorat de l'Université de Paris 6, 1993.
-
F. Ibekwe - Sanjuan, A linguistic and mathematical method for mapping
thematic trends from texts, ECAI 98, Henri Prade (ed.), John Willey
and Sons, Ltd (1998) pp. 170 -- 174.
* * *
30 mai 2002 à 14 heures
salle FO6, IUT de Metz
Reversibility and Cellular Automata
par
Thomas Worsch
Université de Karlsruhe
Reversibility
of computations has become a topic in which researchers from several disciplines
are interested. After a short review of the origins of these interests
we will concentrate on reversible simulations. That is the task to simulate
a possibly irreversible computation on a reversible model of computation.
In particular we will give an overview of the state of the art of simulations
on reversible cellular automata. We will conclude with an outline of our
current research which is concerned with the improvement of the time overhead
of reversible simulations of cellular automata on infinite configurations.
* * *
23 mai 2002 à 14 heures
salle FO6, IUT de Metz
Recognition of interval graphs
par
Lorna Stewart
Université d'Alberta, Canada
A graph
is an interval graph if it is the intersection graph of intervals on the
real line. We survey the history of interval graph recognition algorithms,
and describe the recent, easily implementable algorithm of Corneil, Olariu,
and Stewart. This algorithm is based upon the well-known lexicographic
breadth-first search (LBFS) paradigm.
* * *
4 avril 2002 à 14 heures
salle FO6, IUT de Metz
The GNU Eiffel Compiler
par
Dominique Colnet
LORIA, Nancy
Visite guidée
du langage Eiffel et des outils de SmallEiffel. Présentation du principe
et des mécanismes de la « programmation par contrats ». Présentation
de la notion d'agent Eiffel (fermeture lexicale avec évaluation partielle).
Utilisation des agents dans le cadre de la nouvelle bibliothèque graphique
Picasso.
* * *
28 mars 2002 à 14 heures
salle FO6, IUT de Metz
Linear cellular automata on finitely generated abelian groups - revisited
par
Gencho Skordev
Université de Brême
A new method
for the investigation of self-similarity and automaticity properties of
the orbits of finite initial configurations w.r.t. linear cellular automata
with states in finite field is discussed.
* * *
14 mars 2002 à 14 heures
salle FO6, IUT de Metz
Prédicats morphiques et extensions
par
Olivier Carton
Université de Marne-la-Vallée
Nous considérons
la structure (N,<,P) des entiers naturels munis de l'ordre, étendue par
un prédicat unaire P. Nous montrons que pour un prédicat morphique P,
la théorie monadique du second ordre associée MTh(N,<,P) est décidable.
Ce résultat étend les résultats précédents de Elgot et Rabin (1966)
et Maes (1999). La solution est obtenue par des méthodes de théorie des
semigroupes, qui sont reliées à l'approche par automates de Elgot et
Rabin. Finalement, nous montrons comment ces méthodes permettent d'obtenir
une large classe de prédicats P pour lesquels la théorie MTh(N,<,P) est
décidable.
Travail en collaboration avec W. Thomas.
* * *
7 mars 2002 à 14 heures
salle FO6, IUT de Metz
New Results on Graph Subcoloring
par
Fedja Fomin
Université de Paderborn
A subcoloring
is a vertex coloring of a graph in which every color class induces a disjoint
union of cliques. We derive a number of results on the combinatorics, the
algorithmics, and the complexity of subcolorings.
On the negative
side, we prove that 2-subcoloring is NP-hard for comparability graphs,
and that 3-subcoloring is NP-hard for AT-free graphs and for complements
of planar graphs. On the positive side, we derive polynomial time algorithms
for 2-subcoloring of complements of planar graphs, and for r-subcoloring
of interval and of permutation graphs. Moreover, we prove asymptotically
best possible upper bounds on the subchromatic number of interval graphs
and permutation graphs in terms of the number of vertices.
* * *
28 février 2002 à 14 heures
salle FO6, IUT de Metz
Pourquoi les dynamistes s'intéressent aux automates cellulaires
par
François Blanchard
CNRS
Un automate
cellulaire unidimensionnel F d'alphabet A est souvent considéré comme
agissant sur l'ensemble des suites doublement infinies Aℤ.
Il s'agit alors d'un système dynamique topologique au sens classique du
terme : Aℤ, muni de la topologie produit, est
un compact métrique sur lequel l'application F agit continuement.
Les AC en
tant que systèmes dynamiques sont un vrai réservoir de questions ouvertes,
issues, directement ou non, de la problématique de Wolfram. Leur étude
est d'une simplicité comparable à celle des applications de l'intervalle,
mais avec des propriétés assez différentes, pour l'instant bien moins
connues, et dont la description pose des problèmes particuliers. Nous
passerons en revue les phénoménes d'attraction, liés à la non-surjectivité,
et ceux apparaissant dans le comportement local : points d'équicontinuité,
sensibilité aux conditions initiales.
* * *
14 février 2002 à 14 heures
salle FO6, IUT de Metz
Solving systems of algebraic equations
par
Przemyslaw Kiciak
Université de Varsovie
Systems
of algebraic equations are often solved via the recursive subdivision of
the appropriate domain. In the context of the problem of computing the
common curve of two parametric (Bézier) patches, the implementation of
adaptivity of the divisions will be discussed. The relevant theorems make
it possible to implement tests, which determine the necessary level of
division. A hybrid procedure, which divides the domain and then computes
the common arcs of pieces of the patches may thus be fast as well as reliable.
Remarks concerning the general case of solving a system of d equations
with d unknowns will also be given. Some experimental results will also
be discussed.
* * *
7 février 2002 à 14 heures
salle FO6, IUT de Metz
Récurrence et Réécriture
par
Claude Kirchner
LORIA, Nancy
Inductive
proofs can be built either explicitly by making use of an induction principle
or implicitly by using the so-called induction by rewriting and inductionless
induction methods. When mechanizing proof construction, explicit induction
is used in proof assistants and implicit induction is used in rewrite based
automated theorem provers. The two approaches are clearly complementary
but up to now there was no framework able to encompass and to understand
uniformly the two methods. In this paper, we propose such an approach based
on the general notion of deduction modulo. We extend slightly the original
version of the deduction modulo framework and we provide modularity properties
for it. We show how this applies to a uniform understanding of the so called
induction by rewriting method and how this relates directly to the general
use of an induction principle.
Travail en commun avec Éric Deplagne.
* * *
24 janvier 2002 à 14 heures
salle FO6, IUT de Metz
Logique, automates et systèmes de numération
par
Alexis Bès
Université Paris XII
Je présenterai
dans cet exposé de synthèse quelques aspects des liens entre les questions
de décidabilité et de définissabilité en logique, les automates finis
et les systèmes de numération sur les entiers (et les réels). J'expliquerai
d'abord l'utilisation des automates pour montrer la décidabilité des
théories logiques (ex: arithmétique de Presburger, arithmétique de Skolem...),
puis montrerai qu'en retour les arguments de définissabilité logique
peuvent se montrer assez efficaces dans l'étude de problèmes combinatoires
ou de décision liés aux automates et aux systèmes de numération, comme
le théorème de Cobham.
* * *
17 janvier 2002 à 14 heures
salle FO6, IUT de Metz
Hight Order et Induction en B
par
Dominique Cansell
Université de Metz - LORIA, Nancy
Lors de
cet exposé je ferai le bilan sur plusieurs travaux sur B et l'induction
(preuve et définitions). La méthode B est une méthode dédiée essensiellement
au développement de système (critique, réactif, logiciel ou non). Nous
avons voulu montrer que B peut être utilisé dans d'autre cas comme pouvoir
prouver des théorèmes (même d'ordre supérieur) de mathématicien.
Le premier
travail a été réalisé avec la collaboration de Jean-Raymond Abrial
et Guy Laffitte. La méthode B ne permettait pas de faire des preuves en
logique d'ordre supérieur. Pour faire des preuves par récurrence il faut
pouvoir quantifier sur les prédicats. Cela a été permis en quantifiant
sur les ensembles car en théorie des ensembles on peut quantifier sur
tous les sous-ensembles d'un ensemble.
Pour simplifier
les preuves et surtout pour faire des preuves « abstraites », nous
avons défini un langage de structuration qui permet de définir des structures
mathématiques et leurs théorèmes associés. Nous avons également développé
un outil qui traduit des structures en machine B. Nous pouvons, ainsi,
utiliser l'Atelier B pour prouver les théorèmes de ces structures.
titre
d'exemple nous avons defini des structures qui permettent de démontrer
le théorème de Zermelo qui dit que tout ensemble peut être bien ordonné
(si l'on dispose de l'axiome du choix). Pour cela il a fallu définir les
transfinis associés à un ensemble qui sont eux mêmes un point fixe etc...
Les deux travaux suivants ont été réalisé avec Dominique Méry.
Nous avons utilisé B pour construire des algorithmes itératifs (corrects!)
qui calculent la valeur d'une fonction (définie récursivement).
* * *
3 décembre 1998 à 14 heures
salle FO6, IUT de Metz
Les systèmes fonctionnels : fonctions contre algorithmes
par
Loïc Colson
Université Paris VII
Les systèmes
fonctionnels (ou lambda-calculs typés) sont des modèles de calculs récursifs
dont la récursion générale est absente et dont les programmes ont la
caracteristique principale de toujours terminer. Pourtant des théorèmes
de représentation assurent que la classe des fonctions
calculables par de tels programmes est très grande (bien plus grande que
ce qu'on utilise en informatique en général). Le problème est que l'algorithme implementé par ce programme pour calculer
une fonction particuliere peut être très mauvais du point de vue de son
comportement (en particulier du point de vue complexité).
On discutera
des theorèmes de limitation du pouvoir expressif algorithmique d'un petit
système fonctionnel (la récursion primitive) et on montrera comment résoudre
ce problème par l'introduction de fonctionnelles en programmation.
* * *
26 novembre 1998 à 14 heures
salle FO6, IUT de Metz
Optimisations Matérielles et Logicielles dans le cadre du projet de Gestion
Electronique de Documents STRETCH
par
Marc-Michel Pic et Bernard Goossens
CEA, Saclay et LIAFA, Université Paris VII
Nous présentons
une synthese de travaux sur l'étude comparée de la finitude de différents
types de présentations de monoïdes enrichie par des résultats nouveaux.
Les monoïdes simplifiables admettent des présentations comme monoïdes
mais aussi des présentations comme monoïdes simplifiables monolatèrement
ou bilatèrement. Les monoïdes immersibles dans un groupe admettent, en
outre, des présentations de Malcev. A. I. Malcev a donné le premier exemple
d'un monoïde simplifiable qui n'est pas immersible dans un groupe. S.
I. Adjan a prouvé qu'il n'est pas possible de remplacer la règle de simplification
monolatère ou bilatère par un nombre fini de relateurs. Nous montrons
ensuite que tout sous-monoïde finiment engendré d'un monoïde libre admet
une présentation de Malcev finie. Gupta, Albert et Lawrence ont prouvé
que tout système d'équations sur un alphabet fini est équivalent à
un sous-système fini. Nous prouvons que cette propriété est équivalente
à la propriété noethérienne que toute chaîne strictement ascendante
de congruences résolvantes dans un monoïde libre est finie et aussi à
la propriété artinienne que toute chaine strictement descendante d'idéaux
clos du monoïde des endomorphismes d'un monoïde libre est finie.
* * *
19 novembre 1998 à 14 heures
salle FO6, IUT de Metz
Sur la conjecture de PARKER
par
Maurice Nivat
Université Paris VII
* * *
12 novembre 1998 à 14 heures
salle FO6, IUT de Metz
Algorithmes de pavage
par
Éric Rémila
Université de Saint-Étienne
Fixons un
jeu de pavés-modèles. Un algorithme de pavage est un algorithme qui,
étant donnée une figure finie F du plan, fournit un pavage de F par des
copies des pavés-modèles (ou indique l'impossibilité). Bien que le problème
général du pavage d'une figure soit NP-complet, il existe des algorithmes
de pavage très élégants, en temps polynomial, dans le cas particulier
où le jeu de pavés-modèles est très simple (pavage par dominos, par
des barres de longueur fixée, ou par des barres de longueur au moins égale
à 2).
Le but de
l'exposé est de présenter des algorithmes de pavage. Un intérêt tout
particulier sera accordé à la notion de groupe de pavage, qui sous-tend
certains de ces algorithmes en permettant de structurer l'ensemble des
pavages d'une figure par une relation d'ordre.
* * *
5 novembre 1998 à 14 heures
salle FO6, IUT de Metz
Pseudo-Boolean Constraint Logic Programming: From Theory to Practice
par
Alexander Bockmayr
Max-Plank Institute, Saarbrücken - LORIA, Nancy
Constraint
programming has become a powerful new methodology for modeling and solving
many practical problems. In this talk, we give an overview of our work
on pseudo-Boolean constraint logic programming. Pseudo-Boolean constraints
are equations and inequalities between integer polynomials in 0-1 variables.
They combine propositional logic with arithmetic.
Our results
range from theoretical work on the complexity of cutting plane proofs up
to efficient algorithms and software systems for the solution of large
practical problems.
* * *
22 octobre 1998 à 14 heures
salle FO6, IUT de Metz
Algorithmes optimaux pour les problèmes NP suivant L. Levin
par
Jean-Yves Marion
LORIA, Nancy
Inverser
une fonction F consiste à trouver pour chaque x, un temoin w, tel que
F(w)=x. Un probleme NP peut se definir en terme d'inversion d'une fonction
particulière. L. Levin (co-decouvreur avec S. Cook de la NP-complétude)
a proposé un algorithme optimal pour les problèmes d'inversion. Je presenterai
cet algorithme qui utilise un interpreteur universel efficace et s'appuie
sur la théorie algorithmique de l'information.
* * *
15 octobre 1998 à 14 heures
salle FO6, IUT de Metz
Sur la finitude de différentes types de présentations de monoïdes
par
Jean-Claude Spehner
Université de Mulhouse
Nous présentons
une synthese de travaux sur l'étude comparée de la finitude de différents
types de présentations de monoïdes enrichie par des résultats nouveaux.
Les monoïdes simplifiables admettent des présentations comme monoïdes
mais aussi des présentations comme monoïdes simplifiables monolatèrement
ou bilatèrement. Les monoïdes immersibles dans un groupe admettent, en
outre, des présentations de Malcev. A. I. Malcev a donné le premier exemple
d'un monoïde simplifiable qui n'est pas immersible dans un groupe. S.
I. Adjan a prouvé qu'il n'est pas possible de remplacer la règle de simplification
monolatère ou bilatère par un nombre fini de relateurs. Nous montrons
ensuite que tout sous-monoïde finiment engendré d'un monoïde libre admet
une présentation de Malcev finie. Gupta, Albert et Lawrence ont prouvé
que tout système d'équations sur un alphabet fini est équivalent à
un sous-système fini. Nous prouvons que cette propriété est équivalente
à la propriété noethérienne que toute chaîne strictement ascendante
de congruences résolvantes dans un monoïde libre est finie et aussi à
la propriété artinienne que toute chaine strictement descendante d'idéaux
clos du monoïde des endomorphismes d'un monoïde libre est finie.
* * *
24 juin 1999 à 14 heures
salle FO6, IUT de Metz
Résolution de la contrainte de tri en O(n·log(n)) (travail commun avec
Noëlle Bleuzen Guernalec)
par
Alain Colmerauer
LIM, Université d'Aix-Marseille 1
L'exposé,
qui sera fait par Alain Colmerauer, portera sur un algorithme de complexité
O(n·log(n)) pour résoudre le problème suivant : on se donne 2n intervalles
a
1,...,a
2n dans un ensemble
totalement ordonné, comme les entiers ou les réels. Trouver les 2n intervalles
b
1,...,b
2n, les plus
petits possibles pour l'inclusion, tels qu'on ait l'équivalence de contraintes :
(xn+1,...,x2n) =
tri(x1, ... ,xn)
avec x1∈a1 ...
x2n∈a2n
⇔
(xn+1,...,x2n) =
tri(x1,...,xn) avec
x1∈b1 ... x2n∈b2n
Ici tri(x
1,...,x
n) désigne
le n-uplet (x
1,...,x
n)
trié dans l'ordre (non strictement) croissant.
* * *
10 juin 1999 à 14 heures
salle FO6, IUT de Metz
Cellular automata and the simulation of Bolzmann lattice-gaz
par
Gianpiero Cattaneo
Université Milan II
* * *
3 juin 1999 à 14 heures
salle FO6, IUT de Metz
Génération de permutations sur réseaux linéaires
par
Maurice Tchuenté
Université de Ngaoundéré, Cameroun
* * *
20 mai 1999 à 14 heures
salle FO6, IUT de Metz
Présentation du projet RÉSÉDAS
par
André Schaff
Université Nancy 1
* * *
6 mai 1999 à 14 heures
salle FO6, IUT de Metz
Billard universel sur le reseau hexagonal avec voisinage de cardinalite
3
par
Anahi Gajardo
Universite du Chili, Santiago du Chili
Dans le
but de réduire le nombre d'états et la cardinalité du voisinage suffisant
pour l'universalité des automates cellulaires, on a étudié l'universalité
sur le reseau hexagonal, ou le voisinage est de cardinalité 3. Sur ce
réseau, 3 états sont suffisants pour l'universalité.
Dans cet
exposé on prouve l'universalité d'un automate cellulaire à blocs sur
le réseau hexagonal, avec 2 états. Bien que ce modèle ne suit pas un
automate cellulaire classique avec 2 états (on peut le simuler avec 7
états), les règles de transition sont très simples et elles peuvent
donner des idées pour le trouver.
* * *
29 avril 1999 à 14 heures
salle FO6, IUT de Metz
Décomposition et composition d'automates temporisés
par
Antoine Petit
ENS de Cachan
Les automates
temporisés, introduits par Alur et Dill en 1990, sont un des modèles
les plus utilisés pour étudier les systèmes temps-réel. Nous proposons
dans cet exposé, basé sur un travail commun avec Patricia Bouyer, un
théorème de décomposition de ces automates temporisés. A cet effet,
nous définissons une nouvelle opération simple et naturelle de composition
entre automates temporisés, indexée par l'ensemble des horloges remises
à zéro, généralisant l'opération classique de concaténation non-temporisée.
Nous étendons ensuite les célèbres théorème de Kleene et de Büchi
sur les automates non temporisés en remplaçant simplement les objets
de base de manière à prendre le temps en compte et la concaténation
et les itérations finie et infinie par la nouvelle composition temporisée
et les itérations induites. Nous obtenons ainsi la caractérisation algébrique
la plus simple existant, au moins à notre connaissance, pour les langages
reconnaissables de mots temporisés.
* * *
8 avril 1999 à 14 heures
salle FO6, IUT de Metz
Phénomènes de seuil pour le problème SAT et ses variantes
par
Nadia Creignou
Université de Caen
Il y a quelques
annees, un phénomène fort intriguant a été mis en évidence pour la
satisfaisabilité des formules 3CNF, un phénomène de seuil : étant donnée
une formule 3CNF aléatoire avec L clauses et n variables, si le rapport
nombre de clauses sur nombre de variables, L/n, est supérieur à une certaine
constante c alors la formule est presque sûrement insatisfaisable et inversement,
si L/n est inférieur à c alors la formule est prèsque sûrement satisfaisable.
Dans un
premier temps nous présenterons les notions, issues de la théorie des
graphes aléatoires, qui permettent de décrire et d´étudier de tels
phénomènes. Ensuite nous ferons un tour d´horizon des résultats connus
à ce jour sur les phénomènes de seuil et le problème SAT (et ses variantes).
* * *
1 avril 1999 à 14 heures
salle FO6, IUT de Metz
Interprétation d'images et graphe sémantique: le problème des mises
en correspondance non univoques
par
Aline Deruyver
IUT de Starsbourg
L'appariement
de données avec un graphe sémantique est souvent associé à la notion
de compréhension. Ce problème est difficile à résoudre pour deux raisons:
l'aspect hautement combinatoire de la recherche de l'appariement et la
rareté, dans la pratique, des relations d'appariement bijectives. L'aspect
hautement combinatoire peut être réduit grâce à une vérification locale
de la satisfaction de contraintes. La non bijectivité de l'appariement
peut être contournée par l'introduction de deux nouvelles notions: la
notion de contrainte à deux niveaux, et la notion de consistance d'arc
faible.
L'appariement
est une fonction non injective dès lors que l'on travaille sur des images
sur-segmentées, ce qui est une situation très fréquente. La perte du
caractère fonctionnel de l'appariement intervient lorsqu'un objet imprévu
apparaît, par exemple une tumeur sur une image médicale anatomique. Dans
ces deux cas, les données ne peuvent pas être associées au graphe sémantique
avec une approche classique. Nous présenterons au cours de ce séminaire
une nouvelle approche pour résoudre ces problèmes.
* * *
25 mars 1999 à 14 heures
salle FO6, IUT de Metz
Sur les codes bifixes
par
Véronique Bruyère
Le problème
suivant a été beaucoup considéré en théorie des codes à longueur
variable : « étant donne un code X ayant la propriété P, existe-t'il
un code maximal Y contenant P et ayant toujours la propriété P ? »
On demande si possible que la construction de Y soit effective.
Dans l'exposé,
je m'attacherai à etudier ce problème pour la propriété P « être
bifixe rationnel ». La construction d'un code maximal Y a été proposee
dans un article de Zhang et Shen en 1995. Avec Dominique Perrin, nous avons
obtenu en 1998 une construction plus simple qui, nous l'espérons, permet
de mieux comprendre la classe des codes bifixes.
* * *
18 mars 1999 à 14 heures
salle FO6, IUT de Metz
Fractal structure and automaticity in the time evolution of cellular automata
and related systems
par
Gencho Skordev
Université de Brême
-
Fractals generated by m-Fermat cellular automata (e.g. linear cellular
automata with states in a finite field). Applications - fractal structures
of Gaussian binomial coefficients and Stirling numbers.
-
Fractals associated with m-Carlitz sequences of polynomials, Applications
- fractals associated with the sequence of Legendre polynomials and
the zero Bessel function.
-
Fractals associated with random multiplication of polynomials.
-
Self-similar functions generated by cellular automata.
-
Automaticity of double sequences generated by m-Fermat cellular automata.
-
Automaticity of double sequences generated by m-Carlitz sequences of
polynomials.
-
Automaticity of coarse-graining invariant orbits of one-dimensional
linear cellular automata.
* * *
11 mars 1999 à 14 heures
salle FO6, IUT de Metz
Peut-on toujours prédire le parcours d'un train sur un circuit donné ?
par
Maurice Margenstern
Université de Metz
On fixe
un ciruit ferroviaire, décrit par des portions de voies droites ou courbes
et des aiguillages de trois types, fixe, à bascule et mémorisant. à
partir d'un circuit donné, éventuellement infini, avec une configurtation
initiale donnée des aiguillages, est-il possible de prévoir le trajet
suivi par un train lancé sur le circuit à partir d'une position donnée ?
La réponse est non. On exposera ici une solution nouvelle à ce problème
résolu en 1994.
* * *
4 mars 1999 à 14 heures
salle FO6, IUT de Metz
TiPi2, un processeur pour exécuter plusieurs flots simultanés
par
Bernard Goossens
Université Paris VII
Bientôt
cent millions de transistors sur une puce. Cela veut dire que par rapport
aux circuits d'aujourd'hui, ceux de demain seront dix fois plus complexes.
Et ceux d'apres-demain, cent fois. Autrement dit, un processeur actuel
représentera un dixième de celui de demain et un centième de celui d'après-demain.
Que faire d'un si grand nombre de transistors supplémentaires ? Une idée
est d'intégrer dans un seul circuit l'équivalent d'un multiprocesseur.
L'exposé, après avoir présenté brièvement l'état de l'art des processeurs,
montrera les quelques options possibles pour un multiprocesseur en un boitier
et en détaillera une en présentant l'architecture du processeur TiPi2.
* * *
25 février 1999 à 14 heures
salle FO6, IUT de Metz
Sémantique des programmes récursifs-parallèles et méthodes pour leur
analyse
par
Olga Kouchnarenko
Université de Franche Comté
Ce travail
s'inscrit dans le cadre des travaux consacrés au développement des modèles
sémantiques destinés aux langages de programmation concurrents. Une particularité
de notre étude réside dans la prise en compte explicite d'une récursivité
au niveau des programmes parallèles. Notre but est de présenter un modèle
abstrait du langage RPC et d'en étudier les propriétés.
Nous avons
développé un modèle théorique abstrait du comportement des programmes
RPC. Notre modèle donne naissance à des systèmes de transitions potentiellement
infinis à cause de la récursivité. Dans ce cadre, la plupart des problèmes
de vérification deviennent indécidables. Cependant il est possible de
munir notre modèle d'une structure de système de transitions bien structuré.
Ce fait permet de montrer la décidabilité de plusieurs problèmes classiques
(atteignabilité, inévitabilité, terminaison,...). Ainsi, ce modèle
présente un bon équilibre entre un pouvoir d'expression non-trivial et
la possibilité de décider de nombreuses propriétés comportementales.
Nous abordons
également les problèmes liés à la formalisation de la stratégie d'implémentation
de RPC sur une machine parallèle de l'IPVT RAN. Ce cadre permet de comprendre
pourquoi toute propriété de sûreté ou de terminaison démontrée pour
notre modèle abstrait est vraie pour la réalisation effective. Ces travaux
font partie du projet européen INTAS-RFFI.
* * *
11 février 1999 à 14 heures
salle FO6, IUT de Metz
Predicats de verite syntaxique dans l'arithmetique du second ordre (travail
en collaboration avec Loïc Colson)
par
Serge Grigorieff
Université Paris VII
Le problème
de l'imprédicativité a été soulevé par Poincaré au début du siècle.
Il s'agit de la circularité des définitions en mathématiques. Nous proposons
une approche prédicative de l'imprédicativité a l'aide de la notion
de prédicats de vérité syntaxique (stp en abrégé). Un stp T en arithmétique
du second ordre est un ensemble de formules
closes
tel que :
-
T(u=v) si et seulement si les deux termes clos du premier ordre u et
v ont la même valeur ;
-
T(A→B) si et seulement si T(A)⇒T(B) ;
-
T(∀X.A) si et seulement si T(A[X←D]) pour toute formule D(x) a
une variable libre définissant une partie de ℕ.
C'est dans la dernière clause qu'apparaît la différence par rapport
à la définition usuelle de la sémantique de Tarski. Cette clause explicite
la circularité intrinsèque puisque la formule A[X←D] peut être beaucoup
plus complexe que A. On note aussi qu'un stp est un objet du second ordre
alors que la vérité Tarskienne est un objet d'ordre trois. Nous montrons
que l'existence d'un stp est prouvable dans la théorie des ensembles et
qu'en fait elle équivaut prédicativement a la cohérence de l'arithmétique
du second ordre.
* * *
28 janvier 1999 à 14 heures
salle FO6, IUT de Metz
Calculabilité et algorithmes : la thèse de Church est-elle vraie ?
par
Lioudmila Pavalotskaya
MPEI Moscou
* * *
21 janvier 1999 à 14 heures
salle FO6, IUT de Metz
Sur la décomposition de problèmes de satisfaction de contraintes
par
Philippe Jégou
LIM, Université de Aix-Marseille I
Le problème
CSP est NP-Complet. Par CSP, on entend problèmes de satisfaction de contraintes
(à domaines finis) ; on dit aussi réseaux de contraintes. Compte-tenu
de la complexité du problème, certains auteurs ont tenté de contourner,
à défaut de réduire, la difficulté en proposant des méthodes de décomposition
basées sur la structure du réseau de contraintes. Ces methodes s'appuient
sur des propriétes algorithmiques et combinatoires des graphes ou hypergraphes
induits par le réseau. Nous rappellerons dans un premier temps les résultats
obtenus, principalement ceux proposés par Dechter et Pearl, et essayerons
d'en cerner les limites. Nous montrerons ensuite comment une approche alternative
pour la décomposition peut s'opérer en s'affranchissant des problèmes
occasionnés par les méthodes précitées. Apres avoir décrit cette approche,
nous présenterons et analyserons les résultats expérimentaux obtenus.
Afin de
rendre le propos accessible, cet exposé débutera par la présentation
d'un bref état de l'art sur la thématique CSP : définition, problèmes,
méthodes énumératives, algorithmes de propagation de contraintes, et
classes polynomiales structurelles.
* * *
14 janvier 1999 à 14 heures
salle FO6, IUT de Metz
Optimisation des communications dans le cadre des systèmes d'équations
récurrentes affines : diffusion et localisation
par
Vincent Loechner
Université de Metz
L'optimisation
des communications est une question cruciale dans l'écriture de programmes
parallèles efficaces. Nous avons developpé un algorithme permettant de
trouver des transformations espaces-temps affines par variable, efficaces
en terme de communications. Le probleme original est décrit sous forme
de système d'équations récurrentes affines parametres, équivalent à
un nid de boucles à assignation unique. Nous nous placons dans le cadre
classique de l'owner computes rule, et dans le modèle « look-forwards ».
Les communications résultent de l'image par les transformations espace-temps
des dépendances entre les calculs. Nous faisons la distinction entre trois
types de communications :
-
– communications locales, entre processeurs a distance constante ;
-
– communications distantes ;
-
– diffusions (broadcast), si l'architecture le permet.
Notre algorithme
intègre la possibilité de broadcast anticipé, et nous donnons une méthode
de calcul de la mémoire globale nécessaire dans ce cas. Alors que les
communications locales et les diffusions sont realisées de manière relativement
efficace sur la plupart des architectures parallèles, les communications
distantes sont source d'irrégularite. Ces irregularités peuvent d'une
part induire des goulots d'étranglement sur le reseau de communication,
et sont d'autre part pénalisantes dans le cas de construction de circuits
dediés. L'analyse de dependances est realisée par le calcul des ensembles
d'utilisation et d'emission correspondant à chaque dépendance. Ces ensembles
sont des polyèdres convexes paramétrés, et leur analyse nous permet
d'exprimer des contraintes affines sur les matrices de transformations
espace-temps, de maniere à privilégier la localisation d'abord, puis
les diffusions et les communications locales plutôt que les communications
distantes ensuite. La meilleure solution est trouvée en construisant un
arbre de solutions, en calculant un ensemble de contraintes sur les transformations
espace-temps et un volume de communications résiduelles à chaque noeud
de l'arbre.Cet algorithme sera implémenté dans le logiciel OPERA au courant
de l'année.
* * *
7 janvier 1999 à 14 heures
salle FO6, IUT de Metz
Interprétation de spécifications temporelles à l'aide d'un outil de
preuve
par
Dominique Cansell
Université de Metz - LORIA, Nancy
Ce travail,
développé au sein de l'équipe MODEL du LORIA, s'inscrit dans le cadre
du développement d'outils pour le langage TLA+ de Leslie Lamport
Les langages
de spécification permettent de donner une description précise d'un cahier
des charges parfois confus, car le plus souvent écrit dans une langue
naturelle ; l'obtention d'une spécification formelle à partir d'une
expression informelle ou semi-formelle des besoins est une tâche très
complexe car elle met en jeu différents mécanismes incluant des processus
cognitifs et des modèles formels. La validation de la spécification obtenue
est alors une étape importante, afin de s'assurer de l'adéquation des
deux expressions des besoins. Nous avons développé un outil simple de
validation de spécifications temporelles TLA à l'aide de l'outil Logic-Solver,
le langage de théorie de l'AtelierB. Nous avons analysé quelques spécifications
formelles, afin d'établir une correspondance entre la spécification formelle
et la spécification informelle. Cette technique est parfois appelée animation
de spécification mais nous préférons l'appeler interprétation.
Nous sommes
restés proche du langage TLA. Comme il est fondé sur une sémantique
des traces, l'interprétation d'une spécification TLA est obtenue en construisant,
à l'aide du Logic-Solver, des traces de propriétés que l'utilisateur
peut parcourir à sa guise. De plus le Logic-Solver nous a permi de rester
dans l'esprit du langage non-typé de Leslie Lamport fondé sur la théorie
des ensembles. L'exposé presentera TLA(+), le Logic-Sover et notre interprète
* * *
4 décembre 1997 à 14 heures
salle FO6, IUT de Metz
Multiplier par 10 la performance du processeur. L'architecture du processeur
Tipi
par
Bernard Goossens
Université Paris VII
* * *
27 novembre 1997 à 14 heures
salle FO6, IUT de Metz
Natural Computing : The Church-Turing Thesis Revisited
par
Max Garzon
Université de Memphis
* * *
20 novembre 1997 à 14 heures
salle FO6, IUT de Metz
La détection de bords : du modèle à l'algorithme
par
Aline Deruyver
Université de Strasbourg
* * *
13 novembre 1997 à 14 heures
salle FO6, IUT de Metz
Un fragment décidable de la logique linéaire du second ordre
par
Guy Perrier
LORIA, Nancy
* * *
6 novembre 1997 à 14 heures
salle FO6, IUT de Metz
Réseaux d'automates: Systèmes dynamiques, Structures pour le calcul parallèle
par
Ibrahima Sakho
Université de Metz
* * *
21 octobre 1997 à 14 heures
salle FO6, IUT de Metz
Shuffling Languages and Posets: Are two Models of Concurrency Equivalent?
par
Zoltán Ésik
Université József Attila, Szeged
* * *
16 octobre 1997 à 14 heures
salle FO6, IUT de Metz
Synchronisation d'automates cellulaires et tolérance aux pannes
par
Jean-Baptiste Yunès
Université Paris 7
* * *
9 octobre 1997 à 14 heures
salle FO6, IUT de Metz
A simple self-reproducing cellular automaton with shape-encoding mechanism
par
Kenichi Morita
Université d'Hiroshima
* * *
4 juin 1998 à 14 heures
salle FO6, IUT de Metz
Deux études de CAO directement liées à des problèmes de fabrication
: le raccordement G2 entre surfaces rationnelles et le raccordement G1
entre surfaces à l'aide de cyclides de Dupin
par
Jean-Luc Beauchat
ENSAM de Metz
* * *
29 mai 1998 à 14 heures
salle FO6, IUT de Metz
New definition of topological chaos with application to cellular automata
dynamics
par
Gianpiero Cattaneo
Université de Milan
* * *
7 mai 1998 à 14 heures
salle FO6, IUT de Metz
Les algorithmes génétiques et les problèmes d'optimisation discrète
: exemples d'applications en génie industriel
par
Marie-Claude Portmann
École des Mines de Nancy
* * *
23 avril 1998 à 14 heures
salle FO6, IUT de Metz
Complexité des systèmes de réécriture
par
Hélène Touzet
* * *
19 mars 1998 à 14 heures
salle FO6, IUT de Metz
Bornes récursives pour le théorème de Hignam
par
Adam Cichon
* * *
12 mars 1998 à 14 heures
salle FO6, IUT de Metz
Récurrences faibles et Complexités algorithmiques
par
Jean-Yves Marion
* * *
26 février 1998 à 14 heures
salle FO6, IUT de Metz
Contribution à l'analyse et à la réalisation d'un système de CAO à
base de caractéristiques de forme
par
Cathy Poinsignon
* * *
19 février 1998 à 14 heures
salle FO6, IUT de Metz
Une nouvelle approche pour la modélisation et la gestion des contraintes
en CAO
par
Sandrine Leinen
* * *
29 janvier 1998 à 14 heures
salle FO6, IUT de Metz
L'offre HPC Silicon/Cray (1ere partie) ; description de l'Origin2000 et
de son environnement logiciel (2e partie)
par
Ghislain De Jacquelot
Silicon/Cray
* * *
22 janvier 1998 à 14 heures
salle FO6, IUT de Metz
Le modèle PDN
par
Giuseppe Bério
Université de Turin
* * *
15 janvier 1998 à 14 heures
salle FO6, IUT de Metz
La construction formulatoire mathématique ou : comment coder un algorithme
par une fonction ?
par
Azzédine Kaced
Université de Metz
* * *
8 janvier 1998 à 14 heures
salle FO6, IUT de Metz
Automates de Büchi non ambigus
par
Olivier Carton
Université de Marne-la-Vallée
* * *
19 décembre 1996 à 14 heures
salle FO6, IUT de Metz
Génération aléatoire des structures arborescentes et applications
par
René Schott
LORIA, Nancy
* * *
5 décembre 1996 à 14 heures
salle FO6, IUT de Metz
Algorithmes du lancer de rayons
par
Michaël Krajecki
* * *
28 novembre 1996 à 14 heures
salle FO6, IUT de Metz
Decidable and undecidable fragments of the elementary theory of free monoids
par
Sergei Adian
Institut Steklov, Moscou
* * *
21 novembre 1996 à 14 heures
salle FO6, IUT de Metz
Vers la modélisation déclarative de graphes
par
Aristide Grange
Université de Metz
* * *
14 novembre 1996 à 14 heures
salle FO6, IUT de Metz
À propos d'un service fondamental pour assurer la tolérance aux pannes :
le Group Membership Service
par
Bernadette Charron-Bost
École Polytechnique
* * *
7 novembre 1996 à 14 heures
salle FO6, IUT de Metz
Automates cellulaires sur les graphes de Cayley
par
Zsuzsanna Roka
Université de Metz
* * *
24 octobre 1996 à 14 heures
salle FO6, IUT de Metz
Bijections séquentielles
par
Christian Choffrut
LITP, Université de Paris VII
* * *
10 octobre 1996 à 14 heures
salle FO6, IUT de Metz
Problèmes de décidabilité pour les systèmes de réécriture de mots
par
Guillaume Watier
* * *
3 octobre 1996 à 14 heures
salle FO6, IUT de Metz
Nouveautés en réseaux de neurones, jeux à jetons sur un graphe et machines
de Turing
par
Maurice Margenstern
Université de Metz
* * *
12 juin 1997 à 14 heures
salle FO6, IUT de Metz
Cellular automata and chaos, II
par
Gianpiero Cattaneo
Université de Milan
* * *
5 juin 1997 à 14 heures
salle FO6, IUT de Metz
Systolic automata
par
Jozef Gruska
Université de Brno
* * *
29 mai 1997 à 14 heures
salle FO6, IUT de Metz
Cellular automata and chaos, I
par
Gianpiero Cattaneo
Université de Milan
* * *
10 mai 1997 à 14 heures
salle FO6, IUT de Metz
Substitutions explicites et forte normalisation
par
Pierre Lescanne
Université de Nancy 1
* * *
13 mars 1997 à 14 heures
salle FO6, IUT de Metz
Recherche d'un ensemble fini de points ayant un ensemble de cordes donné
par
Maurice Nivat
LIAFA, Paris VII
* * *
6 mars 1997 à 14 heures
salle FO6, IUT de Metz
Bases de données déductives
par
Françoise Gire
LIAFA, Paris VII
* * *
20 février 1997 à 14 heures
salle FO6, IUT de Metz
Lois 0-1 en logique
par
Thierry Lacoste
LIM, Université de Marseille
* * *
6 février 1997 à 14 heures
salle FO6, IUT de Metz
Automates finis à plusieurs rubans
par
Serge Grigorieff
LIAFA, Université Paris VII
* * *
30 janvier 1997 à 14 heures
salle FO6, IUT de Metz
On mix operation
par
Manfred Kudlek
Université de Hambourg
* * *
16 janvier 1997 à 14 heures
salle FO6, IUT de Metz
Algorithmes parallèles de recherche de preuve
par
Jean-Yves Marion
Université de Nancy 2
* * *
9 janvier 1997 à 14 heures
salle FO6, IUT de Metz
Dernières nouvelles de SAT
par
Daniel Singer
Université de Metz
* * *
21 décembre 1995 à 14 heures
salle FO6, IUT de Metz
Comment accélérer la recherche de preuve en logique linéaire
par
Jean-Yves Marion
Université de Metz
* * *
11 décembre 1995 à 14 heures
salle FO6, IUT de Metz
Machines de Turing universelles non-effaçantes
par
Maurice Margenstern
Université de Metz
* * *
7 décembre 1995 à 14 heures
salle FO6, IUT de Metz
Sémantique du parallélisme
par
Zineb Habbas
Université de Metz
* * *
30 novembre 1995 à 14 heures
salle FO6, IUT de Metz
Petites machines de Turing universelles
par
Maurice Margenstern
Université de Metz
* * *
20 novembre 1995 à 14 heures
salle FO6, IUT de Metz
Décidabilité/indécidabilité de l'arrêt
par
Maurice Margenstern
Université de Metz
* * *
17 juin 1996 à 14 heures
salle FO6, IUT de Metz
Prototyper la déduction automatique en termes de réécriture
par
Hélène Kirchner
LORIA, Nancy
* * *
10 juin 1996 à 14 heures
salle FO6, IUT de Metz
Une nouvelle approche pour des machines de Turing universelles très petites
par
Maurice Margenstern
Université de Metz
* * *
6 juin 1996 à 14 heures
salle FO6, IUT de Metz
A 0-1 Law for Planar Maps
par
Kevin Compton
Université du Michigan, Ann Arbor
* * *
30 mai 1996 à 14 heures
salle FO6, IUT de Metz
Systemes de numeration redondants, calcul-en ligne et operateurs « boite
noire »
par
Jean-Michel Muller
LIP, ENS de Lyon
* * *
23 mai 1996 à 14 heures
salle FO6, IUT de Metz
Sur les fonctions calculables par les machines de Turing
par
Lioudmila Pavlotskaïa
MPEI, Moscou
* * *
9 mai 1996 à 14 heures
salle FO6, IUT de Metz
Introduction à l'algorithmique parallèle
par
Francine Herrmann
Université de Metz
* * *
6 mai 1996 à 14 heures
salle FO6, IUT de Metz
Problèmes de satisfaction de contraintes
par
Pierre-Paul Merel
* * *
2 mai 1996 à 14 heures
salle FO6, IUT de Metz
Fonctions calculables en ligne
par
Hratchya Pélibossian
* * *
28 mars 1996 à 14 heures
salle FO6, IUT de Metz
Axiomatique du modeleur BRep
par
Jean-François Dufour
* * *
21 mars 1996 à 14 heures
salle FO6, IUT de Metz
Schématisation d'ensembles infinis de termes en démonstration automatique
par
Ali Amaniss
* * *
14 mars 1996 à 14 heures
salle FO6, IUT de Metz
Specifications opérationnelles structurées pour le vrai parallélisme
par
Juan Echague
Université de Montevideo, Uruguay
* * *
7 mars 1996 à 14 heures
salle FO6, IUT de Metz
Automates cellulaires et images
par
Jacques Mazoyer
LIP, ENS de Lyon
* * *
22 février 1996 à 14 heures
salle FO6, IUT de Metz
Computational power of neural networks
par
Hava Siegelmann
Technion, Israël
* * *
8 février 1996 à 14 heures
salle FO6, IUT de Metz
Universalité des réseaux d'interaction
par
Denis Béchet
CRIN, Nancy
* * *
1 février 1996 à 14 heures
salle FO6, IUT de Metz
Complexité d'automates cellulaires
par
Martín Matamalá
Université du Chili, Santiago
* * *
22 janvier 1996 à 14 heures
salle FO6, IUT de Metz
Small Deterministic Turing Machines
par
Manfred Kudlek
Université de Hambourg
* * *
18 janvier 1996 à 14 heures
salle FO6, IUT de Metz
Ordinateurs quantiques
par
Jean-Paul Delahaye
LIFL, Université de Lille 1
* * *
11 janvier 1996 à 14 heures
salle FO6, IUT de Metz
Spécifications du calcul
par
Abdelouahed Zakari
Université de Metz
* * *
7 juillet 2011 à 14 heures 0
E203, UFM-MIM
On the Permuted Perceptron Problem - A New Formulation and Approach
par
Tiru S. Arthanari
University of Auckland Business School, Nouvelle-Zélande
The permuted
perceptron problem (PPP) has received renewed interest due to its application
in Cryptanalysis. Simulated annealing and other hybrid meta-heuristics
are applied to attack
this problem. Difference of convex functions approach is also combined
with simulated
annealing to solve problem instances of PPP.
In this
talk after a brief review of the state of art of PPP approaches a new model
for
approaching the PPP will be introduced. This is a parametric minimum cost
bipartite flow
formulation with special cost structure. We have not worked on the computational
efficiency
of this approach, but highlight why this approach might yield better results.
* * *