FR2829604A1 - Selection interactive de donnees dans des images numeriques - Google Patents
Selection interactive de donnees dans des images numeriques Download PDFInfo
- Publication number
- FR2829604A1 FR2829604A1 FR0111765A FR0111765A FR2829604A1 FR 2829604 A1 FR2829604 A1 FR 2829604A1 FR 0111765 A FR0111765 A FR 0111765A FR 0111765 A FR0111765 A FR 0111765A FR 2829604 A1 FR2829604 A1 FR 2829604A1
- Authority
- FR
- France
- Prior art keywords
- candidate
- image
- original image
- detection
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—Two-dimensional [2D] image generation
- G06T11/60—Creating or editing images; Combining images with text
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
La présente invention se situe dans le domaine technologique de l'imagerie et plus spécifiquement de l'analyse d'images.La présente invention concerne plus particulièrement un procédé interactif qui permet à un utilisateur de sélectionner et valider partiellement ou totalement le résultat fourni par un procédé de détection automatique de données d'image numérique.Le procédé de l'invention est utilisé avantageusement pour rénover des images enregistrées sur des supports argentiques ou magnétiques. Les supports argentiques traditionnels des ces images sont constitués généralement par du film ou du papier photographique.
Description
<Desc/Clms Page number 1>
SELECTION INTERACTIVE DE DONNEES
DANS DES IMAGES NUMERIQUES
La présente invention se situe dans le domaine technologique de l'imagerie et s'applique plus spécifiquement à l'analyse d'images. La présente invention concerne un procédé interactif qui permet à un utilisateur de sélectionner et valider partiellement ou totalement le résultat fourni par un procédé de détection de données d'image numérique.
DANS DES IMAGES NUMERIQUES
La présente invention se situe dans le domaine technologique de l'imagerie et s'applique plus spécifiquement à l'analyse d'images. La présente invention concerne un procédé interactif qui permet à un utilisateur de sélectionner et valider partiellement ou totalement le résultat fourni par un procédé de détection de données d'image numérique.
Le procédé de l'invention permet une génération interactive de cartes d'étiquettes d'images numérisées Le procédé de l'invention peut être utilisé dans diverses applications d'analyses d'images, comme par exemple la segmentation d'images, le suivi d'objets ou de structures dans des séquences d'images numériques ou encore la restauration d'images numériques. Son application à la restauration d'images numérisées permet d'obtenir une détection de bonne qualité, condition indispensable à une bonne restauration.
Dans le domaine de l'imagerie, la rénovation ou restauration des images enregistrées sur des supports traditionnels peut être opérée en traitant une version préalablement numérisée de ces images. Les supports traditionnels de ces images sont constitués généralement par du film, du papier photographique ou de la bande magnétique. La restauration de ces images permet de recouvrer la représentation de l'image d'origine, qui a pu être dégradée par exemple, du fait de son vieillissement ou des détériorations diverses engendrées au cours des traitements ou manipulations des supports photographiques, films ou magnétiques. Les images à restaurer peuvent être fixes ou animées. Les images fixes sont généralement des photographies représentant par exemple des personnes, des paysages ou des photographies de gravures (dessins, tableaux, etc. ). Les images animées sont généralement des séquences de film, par exemple des films cinématographiques ou encore des séquences vidéo, par exemple issues de documents télévisés ou de vidéos amateurs. Les procédés de restauration numérique connus de l'homme du métier consistent généralement à numériser l'image originellement enregistrée sur un support film, argentique ou magnétique, puis à traiter l'image d'origine numérisée pour la restaurer Les moyens et algorithmes de traitement correspondant à ces procédés permettent de transformer l'image d'origine numérisée en fonction des consignes données par des logiciels dérivant de ces algorithmes de ces logiciels. L'image numérique ainsi transformée ou restaurée peut être mémorisée et utilisée ultérieurement sous une forme numérique ou par exemple éditée sur un support type film ou papier photographique.
<Desc/Clms Page number 2>
Parmi les techniques de diagnostic ou de détection de données d'images connues de l'homme du métier et permettant d'obtenir ultérieurement un traitement adapté à l'application visée, comme par exemple à la restauration d'image numérisée, il existe des procédés de détection de données d'image permettant de faire la détection et la classification des défauts ou anomalies d'une image. Un tel procédé est décrit par exemple dans la demande de brevet européen EP 585759 Ce procédé permet de déterminer la quantité, la forme, la taille et l'emplacement d'impuretés ou de rayures sur la surface d'un élément photographique tel qu'une bande de film, numérisée avec un scanner à balayage. A partir de paramètres déterminés, un algorithme de détection permet d'identifier des points ou zones d'éléments susceptibles de représenter les structures ou entités à détecter par l'algorithme dans l'image ou la pluralité d'images numériques. Ces éléments, dits candidats, sont un ensemble de pixels formant des zones appelées zones candidates. Les zones candidates sont les zones où il existe potentiellement un risque ou une probabilité qu'il y ait eu un changement ou une modification de l'image d'origine compte tenu des paramètres de détection de l'algorithme utilisé. Les critères et paramètres de détection sont basés par exemple sur des formulations d'hypothèses statistiques permettant d'établir des seuils d'acceptation, des fonctions de similitude ou de ressemblance entre les pixels de l'image, des tests de probabilité, des opérations de segmentation de l'image, etc... Ces procédés de détection fournissent automatiquement le résultat, par exemple sous la forme de zones candidates d'une image d'origine numérisée. Le résultat de la mise en #uvre de ces procédés de détection d'images est fourni automatiquement et lesdits procédés ne laissent pas de liberté d'interprétation à l'utilisateur qui doit valider sans alternative le résultat de détection fourni, s'il désire restaurer une image par exemple, Les utilisateurs n'ont aucune interaction ou interactivité vis-à-vis de tels procédés. Cela signifie qu'un utilisateur, compte tenu de l'image d'origine, du résultat de détection fourni pour ladite image, ne peut qu'utiliser ce résultat de détection dans son intégralité. La restauration sera basée sur le résultat global donné par le procédé de détection, sans tenir compte d'une part des possibles erreurs de détection inhérentes à l'algorithme de détection utilisé, et d'autre part de l'interprétation et des besoins spécifiques de l'utilisateur. comparativement au résultat de détection fourni par ledit procédé de détection.
La présente invention a pour objet un procédé permettant de fournir à un utilisateur une image ou carte numérique d'étiquettes représentant le résultat de détection de données numériques d'images. Cette carte d'étiquettes peut être modifiée partiellement ou totalement de façon interactive et être ensuite exploitée par différentes
<Desc/Clms Page number 3>
applications d'analyse d'images Ce procédé de génération d'une carte d'étiquettes et de modification interactive de la carte d'étiquettes est utilisé en particulier pour la restauration d'images numérisées.
L'objet de la présente invention est plus spécifiquement un procédé interactif de sélection et de validation de structures ou d'entités (éléments candidats) présentes dans au moins une image d'origine numérisée permettant à un utilisateur d'au moins un terminal muni d'au moins un écran d'affichage de valider ou non en temps réel un résultat de détection automatique d'éléments candidats de l'image d'origine et comprenant les étapes suivantes : a) détection automatique par un algorithme de détection de zones candidates représentatives d'éléments candidats à extraire dans l'image d'origine ; b) validation automatique par l'algorithme de détection, de la détection de certaines zones candidates réalisée à l'étape a) et représentant les éléments candidats à extraire dans l'image d'origine , c) enregistrement de la forme, de la position et du statut de validation des zones candidates et des zones initialement extraites et rejetées lors de la détection , d) affichage sur l'écran de l'image d'origine accompagnée d'une image numérique de la représentation graphique des zones candidates traduisant le résultat de détection de ladite image d'origine obtenu aux étapes a) et b) : e) analyse visuelle de l'image de la représentation graphique des zones candidates par comparaison avec l'image d'origine affichée simultanément sur l'écran , f) partir de l'analyse visuelle et du résultat de validation automatique de l'étape b), sélection par l'utilisateur des zones candidates ou des parties de zones candidates qu'il souhaite valider ou invalider ; g) validation par l'utilisateur de la sélection opérée à l'étape f)
D'autres caractéristiques apparaîtront à la lecture de la description qui suit, faite en référence aux dessins des différentes figures.
D'autres caractéristiques apparaîtront à la lecture de la description qui suit, faite en référence aux dessins des différentes figures.
La figure 1 représente un exemple de terminal et de dispositifs associés constituant l'environnement matériel (hardware) de l'invention.
La figure 2 représente une image d'origine selon l'invention.
La figure 3 représente une image de la représentation graphique des zones candidates dans l'image d'origine.
<Desc/Clms Page number 4>
La description suivante est une description détaillée des principaux modes de réalisation de l'invention en référence aux dessins dans lesquels les mêmes références numériques identifient les mêmes éléments dans chacune des différentes figures
La présente invention concerne un procédé permettant à un utilisateur de valider selon les besoins qu'il recherche, un résultat de détection de données d'images numérisées. Selon les figures 1, 2 et 3, le procédé de l'invention permet à l'utilisateur d'un terminal 1 muni d'un écran d'affichage 2 de valider interactivement un résultat de détection de zones candidates 5, 6, 7, 8, 13 de l'image d'origine numérisée 3 L'image d'origine numérisée 3 est soit une image unique, soit un sous-ensemble d'une séquence d'images, soit un jeu d'images indépendantes. L'algorithme de détection utilisé peut par exemple permettre d'isoler des zones en mouvement ou des défauts locaux présents au sein d'une image numérisée ou encore extraire certaines structures géométriques telles que des contours (courbes, lignes, points) ou des éléments sémantiques comme des visages humains ou des voitures. La plupart des procédés de détection peuvent être ramenés à deux étapes distinctes appliquées successivement une étape de détection ou d'extraction des éléments candidats susceptibles de correspondre à l'entité à détecter (zone candidate) et une étape de validation appliquée à chacune de ces zones candidates. Cette validation des éléments candidats peut être effectuée suivant différents critères, comme par exemple par le biais d'une analyse statistique, d'opérations de seuillage en fonction d'un critère à définir, de génération de tests d'hypothèse, de fonctions de similarité, etc... L'étape de validation correspond à une sélection automatique opérée par l'algorithme de détection de zones candidates validées, de zones candidates invalidées et des zones initialement extraites et rejetées lors de la détection L'affichage des zones candidates sur l'écran 2 est codifié et correspond à des couleurs d'affichage différentes, en fonction d'un statut affecté auxdites zones candidates validée, invalidée ou rejetée. Pour un même statut, on peut également envisager des niveaux de codification différents : par exemple une première couleur indiquant une zone candidate en mouvement et une seconde couleur indiquant une zone trop grande Dans ce contexte, le procédé de détection mémorise et permet de présenter à l'utilisateur par exemple par un affichage sur un écran 2, le résultat des zones candidates validées, des zones candidates invalidées et des zones initialement extraites et rejetées lors de la détection Les zones initialement extraites et rejetées lors de la détection comprennent la zone 9 du fond de l'image 4. Une zone détectée comme candidate est étiquetée, c'est-à-dire que chacun des pixels connexes représentatif d'une zone candidate est affecté d'une unique valeur visualisable à l'écran comme un niveau
La présente invention concerne un procédé permettant à un utilisateur de valider selon les besoins qu'il recherche, un résultat de détection de données d'images numérisées. Selon les figures 1, 2 et 3, le procédé de l'invention permet à l'utilisateur d'un terminal 1 muni d'un écran d'affichage 2 de valider interactivement un résultat de détection de zones candidates 5, 6, 7, 8, 13 de l'image d'origine numérisée 3 L'image d'origine numérisée 3 est soit une image unique, soit un sous-ensemble d'une séquence d'images, soit un jeu d'images indépendantes. L'algorithme de détection utilisé peut par exemple permettre d'isoler des zones en mouvement ou des défauts locaux présents au sein d'une image numérisée ou encore extraire certaines structures géométriques telles que des contours (courbes, lignes, points) ou des éléments sémantiques comme des visages humains ou des voitures. La plupart des procédés de détection peuvent être ramenés à deux étapes distinctes appliquées successivement une étape de détection ou d'extraction des éléments candidats susceptibles de correspondre à l'entité à détecter (zone candidate) et une étape de validation appliquée à chacune de ces zones candidates. Cette validation des éléments candidats peut être effectuée suivant différents critères, comme par exemple par le biais d'une analyse statistique, d'opérations de seuillage en fonction d'un critère à définir, de génération de tests d'hypothèse, de fonctions de similarité, etc... L'étape de validation correspond à une sélection automatique opérée par l'algorithme de détection de zones candidates validées, de zones candidates invalidées et des zones initialement extraites et rejetées lors de la détection L'affichage des zones candidates sur l'écran 2 est codifié et correspond à des couleurs d'affichage différentes, en fonction d'un statut affecté auxdites zones candidates validée, invalidée ou rejetée. Pour un même statut, on peut également envisager des niveaux de codification différents : par exemple une première couleur indiquant une zone candidate en mouvement et une seconde couleur indiquant une zone trop grande Dans ce contexte, le procédé de détection mémorise et permet de présenter à l'utilisateur par exemple par un affichage sur un écran 2, le résultat des zones candidates validées, des zones candidates invalidées et des zones initialement extraites et rejetées lors de la détection Les zones initialement extraites et rejetées lors de la détection comprennent la zone 9 du fond de l'image 4. Une zone détectée comme candidate est étiquetée, c'est-à-dire que chacun des pixels connexes représentatif d'une zone candidate est affecté d'une unique valeur visualisable à l'écran comme un niveau
<Desc/Clms Page number 5>
de gris ou une couleur. Cette connexité entre pixels dépend d'un système de voisinage
Le système de voisinage permet de définir le nombre de pixels ou points connexes à un pixel donné. On peut par exemple choisir comme pixels connexes, les quatre pixels les plus proches du pixel donné et formant une croix dont le centre est ledit pixel donné ou par exemple les huit pixels les plus proches du pixel donné et disposés autour dudit pixel donné On peut aussi ne pas choisir de pixel(s) connexe(s) au pixel donné, et étiqueter ainsi pixel par pixel la zone candidate. Les cartes d'étiquettes sont connues de l'homme du métier. Une étiquette est une valeur numérique affectée à un pixel ou à un ensemble de pixels d'une image numérique. Par exemple, dans la figure 2, tous les pixels identifiant une voiture 20 auront l'étiquette "2" La carte d'étiquettes contient ainsi par exemple une zone candidate 8 correspondante, si la zone8 satisfait le ou les critères de décision d'une entité à détecter. Les représentations graphiques 5, 6, 7, 8, 13 sur l'écran 2 de la carte d'étiquettes (valeurs numériques) sont les zones candidates La zone candidate comprend l'ensemble des pixels candidats à représenter une zone d'intérêt, extraits par l'algorithme de détection et ayant un statut de validation particulier. La zone candidate peut représenter une structure géométrique mais aussi par exemple correspondre à la zone présentant un jeu de paramètres homogènes estimé par le procédé de détection Les paramètres caractérisent par exemple un type de mouvement d'une entité d'une séquence d'images. La valeur de l'étiquette appliquée à une zone candidate et par extension le nombre de zones candidates différentes possibles peut dépendre de l'espace mémoire alloué à chacun des pixels. Par exemple, si un seul octet est alloué par pixel, seules 256 (2 à la puissance 8) zones candidates distinctes pourront être détectées Si chaque pixel est codé par l'intermédiaire de 3 canaux, par exemple pour une image couleur, il sera possible de coder et de représenter la zone candidate par une des 16 millions (256 au cube) de couleurs possibles. Un nombre de zones candidates distinctes beaucoup plus important est ainsi possible
Les moyens utilisés pour traiter, manipuler ou analyser une image numérique ou une séquence d'image numérique sont mis en #uvre généralement dans un environnement matériel (hardware) comme celui représenté sur la figure 1 Un mode de réalisation préféré de mise en #uvre du procédé de l'invention comprend l'utilisation d'un terminal 1, Le terminal 1 utilisé est par exemple un ordinateur personnel ou PC (Personal Computer) comprenant un écran 2 et un clavier 12. Le système d'exploitation du terminal 1 est par exemple Unix, Windows ou Linux. Ces systèmes d'exploitation permettent de reconnaître via par exemple un système USB (Universal Séria! Bus), des périphériques comme un scanner ou numériseur 15, une imprimante 16 reliés au PC 1
Le système de voisinage permet de définir le nombre de pixels ou points connexes à un pixel donné. On peut par exemple choisir comme pixels connexes, les quatre pixels les plus proches du pixel donné et formant une croix dont le centre est ledit pixel donné ou par exemple les huit pixels les plus proches du pixel donné et disposés autour dudit pixel donné On peut aussi ne pas choisir de pixel(s) connexe(s) au pixel donné, et étiqueter ainsi pixel par pixel la zone candidate. Les cartes d'étiquettes sont connues de l'homme du métier. Une étiquette est une valeur numérique affectée à un pixel ou à un ensemble de pixels d'une image numérique. Par exemple, dans la figure 2, tous les pixels identifiant une voiture 20 auront l'étiquette "2" La carte d'étiquettes contient ainsi par exemple une zone candidate 8 correspondante, si la zone8 satisfait le ou les critères de décision d'une entité à détecter. Les représentations graphiques 5, 6, 7, 8, 13 sur l'écran 2 de la carte d'étiquettes (valeurs numériques) sont les zones candidates La zone candidate comprend l'ensemble des pixels candidats à représenter une zone d'intérêt, extraits par l'algorithme de détection et ayant un statut de validation particulier. La zone candidate peut représenter une structure géométrique mais aussi par exemple correspondre à la zone présentant un jeu de paramètres homogènes estimé par le procédé de détection Les paramètres caractérisent par exemple un type de mouvement d'une entité d'une séquence d'images. La valeur de l'étiquette appliquée à une zone candidate et par extension le nombre de zones candidates différentes possibles peut dépendre de l'espace mémoire alloué à chacun des pixels. Par exemple, si un seul octet est alloué par pixel, seules 256 (2 à la puissance 8) zones candidates distinctes pourront être détectées Si chaque pixel est codé par l'intermédiaire de 3 canaux, par exemple pour une image couleur, il sera possible de coder et de représenter la zone candidate par une des 16 millions (256 au cube) de couleurs possibles. Un nombre de zones candidates distinctes beaucoup plus important est ainsi possible
Les moyens utilisés pour traiter, manipuler ou analyser une image numérique ou une séquence d'image numérique sont mis en #uvre généralement dans un environnement matériel (hardware) comme celui représenté sur la figure 1 Un mode de réalisation préféré de mise en #uvre du procédé de l'invention comprend l'utilisation d'un terminal 1, Le terminal 1 utilisé est par exemple un ordinateur personnel ou PC (Personal Computer) comprenant un écran 2 et un clavier 12. Le système d'exploitation du terminal 1 est par exemple Unix, Windows ou Linux. Ces systèmes d'exploitation permettent de reconnaître via par exemple un système USB (Universal Séria! Bus), des périphériques comme un scanner ou numériseur 15, une imprimante 16 reliés au PC 1
<Desc/Clms Page number 6>
ou tout autre dispositif 19 relié au PC 1 et permettant la capture de données vidéo diverses L'utilisateur qui désire traiter, manipuler ou analyser une image ou une pluralité d'images d'origine numérise l'image ou la pluralité d'images d'origine en utilisant par exemple un scanner 15, si le support de ladite image d'origine est un support argentique film ou papier photographique L'image transformée est ainsi codée en données numériques L'image d'origine peut être également une image numérique enregistrée avec un appareil photographique ou un caméscope numérique , une telle image peut être ensuite déchargée dans le terminal 1 et faire l'objet d'un traitement, d'une manipulation ou d'analyse si l'utilisateur le souhaite L'image d'origine numérisée
3 est ensuite enregistrée ou stockée dans une mémoire du terminal 1 Dans un mode de réalisation préférentiel, le procédé de l'invention permet à l'utilisateur de lancer l'opération de détection automatique des zones candidates 5, 6, 7, 8, 13 de l'image d'origine numérique 3, comme représenté sur la figure 3. Ceci dans le cadre par exemple de la restauration de ladite image 3 Le lancement du traitement du procédé de détection est opéré automatiquement par exemple au moyen d'une commande simple sur le clavier 12 du terminal 1 ou encore en sélectionnant le traitement à l'aide de la souris 17 dans le cas ou une interface utilisateur est associée au procédé de détection La mémorisation du résultat de la détection de données dans l'image d'origine est effectuée de façon automatique. L'algorithme de détection permet de fournir automatiquement l'ensemble des zones candidates validées et invalidées, chaque zone candidate représentant la zone ou partie de l'image d'origine 3 où des zones d'intérêt dans l'image existent. Ces zones d'intérêt dépendent des critères de détection et de validation choisis, propres à l'algorithme de détection. Les zones candidates sont détectées pour chaque pixel de l'image d'origine 3 Dans le mode particulier de mise en oeuvre du procédé de l'invention appliqué à la restauration d'images numérisées, les zones d'intérêt correspondent par exemple à des défauts locaux potentiels dans l'image d'origine Ces défauts locaux sont des éléments altérants ou étrangers à l'image d'origine3 qui correspondent dans l'image 4 à des pixels candidats détectés à partir de l'image d'origine 3. Des exemples de ces défauts locaux d'image sont des poussières, des rayures ou des dégradations du support argentique initial de l'image ; ces défauts sont générés par exemple lors des manipulations ou lors du développement dudit support.
3 est ensuite enregistrée ou stockée dans une mémoire du terminal 1 Dans un mode de réalisation préférentiel, le procédé de l'invention permet à l'utilisateur de lancer l'opération de détection automatique des zones candidates 5, 6, 7, 8, 13 de l'image d'origine numérique 3, comme représenté sur la figure 3. Ceci dans le cadre par exemple de la restauration de ladite image 3 Le lancement du traitement du procédé de détection est opéré automatiquement par exemple au moyen d'une commande simple sur le clavier 12 du terminal 1 ou encore en sélectionnant le traitement à l'aide de la souris 17 dans le cas ou une interface utilisateur est associée au procédé de détection La mémorisation du résultat de la détection de données dans l'image d'origine est effectuée de façon automatique. L'algorithme de détection permet de fournir automatiquement l'ensemble des zones candidates validées et invalidées, chaque zone candidate représentant la zone ou partie de l'image d'origine 3 où des zones d'intérêt dans l'image existent. Ces zones d'intérêt dépendent des critères de détection et de validation choisis, propres à l'algorithme de détection. Les zones candidates sont détectées pour chaque pixel de l'image d'origine 3 Dans le mode particulier de mise en oeuvre du procédé de l'invention appliqué à la restauration d'images numérisées, les zones d'intérêt correspondent par exemple à des défauts locaux potentiels dans l'image d'origine Ces défauts locaux sont des éléments altérants ou étrangers à l'image d'origine3 qui correspondent dans l'image 4 à des pixels candidats détectés à partir de l'image d'origine 3. Des exemples de ces défauts locaux d'image sont des poussières, des rayures ou des dégradations du support argentique initial de l'image ; ces défauts sont générés par exemple lors des manipulations ou lors du développement dudit support.
A partir d'une image d'origine numérisée, le procédé de l'invention permet à l'utilisateur d'opérer rapidement et facilement la validation interactive du résultat de détection de l'image d'origine. Le procédé de l'invention permet de remédier aux imperfections des algorithmes de détection qui ne garantissent pas un résultat parfait,
<Desc/Clms Page number 7>
par construction, et qui dépendent fortement du choix par un opérateur des valeurs adéquates des paramètres relatifs au procédé de détection. Quelle que soit la fiabilité de ces algorithmes de détection, ils sont toujours par construction basés sur des critères de seuil d'acceptation et des niveaux de confiance statistique Cela signifie que les zones candidates sont fiables avec un certain niveau de confiance qui peut être inférieur à 100%, Il est par conséquent important de remédier à ce manque de robustesse des algorithmes de détection en permettant une interactivité à l'utilisateur. L'interactivité est une caractéristique essentielle du procédé de l'invention L'interactivité est opérée de manière simple en permettant à l'utilisateur de modifier instantanément, en temps réel, le résultat de détection pour qu'il soit en adéquation avec son besoin A partir de l'analyse visuelle de l'image et du résultat de validation automatique, l'utilisateur sélectionne les zones candidates ou les parties de zones candidates qu'il souhaite ensuite valider ou invalider, de manière à obtenir un statut de validation et une représentation graphique desdites zones cohérente avec le résultat recherché. La modification est opérée au moyen d'une interface, par exemple la souris 17 connectée au terminal 1. La souris 17 permet ainsi à l'utilisateur de sélectionner les zones candidates dont il désire modifier le statut de validation fourni par l'algorithme de détection. Le statut de validation correspond au résultat (validé, invalidé) fourni automatiquement par l'algorithme de détection. La sélection et la validation sont opérées de manière simple en cliquant par exemple sur un bouton spécifique 18 de la souris 17, le curseur ou pointeur d'écran étant placé sur la zone candidateà valider affichée sur ledit écran. La validation peut aussi être opérée en sélectionnant et validant par l'action d'un bouton spécifique de la souris 17 plusieurs zones candidates. Les zones candidates sont validées soit une par une, soit ensemble en définissant une région (avec la souris) englobant plusieurs zones candidates Le procédé de l'invention permet également d'augmenter avantageusement l'interactivité en ne validant que partiellement une zone candidate.
Ceci s'applique généralement à une (des) zone(s) candidate(s) assez étendue(s), c'est-àdire comprenant un nombre assez élevé de pixels. Pour une zone candidate 6 détectée et considérée à valider (ou à ne pas valider) par l'algorithme de détection, l'utilisateur peut souhaiter ne valider (ou invalider) qu'une partie de la zone candidate 6 Il sélectionne dans ce cas le contour d'un sous-ensemble ou d'une partie 6A de ladite zone candidate 6 qu'il souhaite valider (ou invalider), avec un bouton de la souris 17. Cette sélection peut être affinée après avoir par exemple fait un agrandissement (zoom) de ladite zone à l'écran. Ensuite, l'utilisateur valide (ou invalide) la partie sélectionnée 6A de la zone candidate 6. L'utilisateur peut souhaiter ne sélectionner par exemple qu'une partie ou
<Desc/Clms Page number 8>
l'ensemble d'une zone candidate d'une image, pour tenir compte du niveau de nuance (teinte) ou de saturation (blanc dans l'image) des pixels de ladite image Selon la figure
1, le procédé de l'invention permet l'affichage simultané sur l'écran 2 de l'image d'origine numérisée 3 accompagnée automatiquement de l'image numérique 4 de la représentation graphique des zones candidates détectées dans l'image d'origine 3. On peut aussi dans une variante de ce mode de réalisation, afficher successivement sur l'écran 2, l'image 3 puis l'image 4. On peut aussi dans un mode de réalisation non illustré, utiliser avantageusement deux écrans au lieu d'un seul : ceci en utilisant par exemple deux PC reliés, placés côte à côte. L'image d'origine 3 peut ainsi être affichée sur un des écrans et l'image 4 de la représentation graphique des zones candidates est affichée sur l'autre écran les images 3 et 4 pouvant être affichées simultanément ou alternativement sur les deux écrans L'algorithme de détection utilisé peut par exemple détecter des altérations ou dégradations de l'image, des mouvements dans l'image (s'il s'agit par exemple d'images de film), des entités ou structures de l'image comme par exemple les visages humains, les structures géométriques particulières, les voitures, etc.
1, le procédé de l'invention permet l'affichage simultané sur l'écran 2 de l'image d'origine numérisée 3 accompagnée automatiquement de l'image numérique 4 de la représentation graphique des zones candidates détectées dans l'image d'origine 3. On peut aussi dans une variante de ce mode de réalisation, afficher successivement sur l'écran 2, l'image 3 puis l'image 4. On peut aussi dans un mode de réalisation non illustré, utiliser avantageusement deux écrans au lieu d'un seul : ceci en utilisant par exemple deux PC reliés, placés côte à côte. L'image d'origine 3 peut ainsi être affichée sur un des écrans et l'image 4 de la représentation graphique des zones candidates est affichée sur l'autre écran les images 3 et 4 pouvant être affichées simultanément ou alternativement sur les deux écrans L'algorithme de détection utilisé peut par exemple détecter des altérations ou dégradations de l'image, des mouvements dans l'image (s'il s'agit par exemple d'images de film), des entités ou structures de l'image comme par exemple les visages humains, les structures géométriques particulières, les voitures, etc.
La détection de ces formes ou mouvements ou entités singulières composant une image fixe ou une séquence d'images animées permet de générer automatiquement l'image 4 des zones candidates La figure 2 représente par exemple une image d'origine 3 d'un paysage et la figure 3 représente l'image 4 de la représentation graphique des zones candidates détectées. Après les étapes de détection et de validation automatiques, les images 3 et 4 sont enregistrées par exemple dans un fichier numérique d'une mémoire du terminal 1. L'utilisateur peut ainsi exploiter le résultat en temps réel dès qu'il est fourni ; il peut par exemple passer aux étapes d'affichage des images et d'analyse visuelle desdites images Dans un mode de réalisation avantageux, le procédé de l'invention permet d'enrichir l'analyse visuelle en animant simultanément sur l'écran 2 l'image d'origine numérisée 3 et l'image numérique 4 de la représentation graphique des zones candidates, lorsque l'image d'origine est un sous-ensemble d'une séquence animée représentant un déroulement continu d'événements successifs. Pour permettre l'analyse visuelle par l'utilisateur sur l'écran 2, les zones candidates détectées 5, 6, 7, 8, 13ont des codifications numériques de couleurs ou de niveaux de gris pouvant être différenciées facilement, les zones candidates 5, 6, 7, 8, 13 se différenciant elles-mêmes facilement de la couleur 9 du fond de l'image 4. Les couleurs différentes des zones candidates validées d'une part et des zones candidates invalidées d'autre part se différencient ellesmêmes des couleurs du fond 9 de l'image 4 Dans un mode de réalisation préféré, le fond 9 de l'image 4 est par exemple de couleur sombre ou noire, tandis que les zones
<Desc/Clms Page number 9>
candidates validées par l'algorithme de détection sont par exemple 5,6, 7 et représentées par une couleur verte tandis que les zones candidates non validées ou invalidées sont par exemple 8,13 et représentées par une couleur rouge. Le procédé de l'invention permet d'afficher sur l'écran 2 du terminal 1 les deux images 3 et 4 simultanément, afin que l'utilisateur analyse visuellement les deux images 3 et 4 par comparaison. Selon les figures 2 et 3, l'utilisateur peut par exemple comparer quatre zones candidates 5, 6,7, 8 avec ce qu'il visualise sur l'image d'origine 3. L'utilisateur estime par exemple que les zones candidates 5 et 6 correspondent effectivement à des défauts 30,40 identifiés visuellement dans l'image d'origine 3. Par contre, il estime que la zone candidate 7 qui devrait être validée selon le résultat de détection fourni, est assimilée en fait non pas à un défaut de l'image 3, mais à une particularité de l'image, par exemple un trou ou un objet 11placé sur une route représentée dans l'image 3. Le procédé de l'invention permet à l'utilisateur de ne pas valider le résultat de détection, initialement validé par l'algorithme de détection. Le fait que la zone candidate 7 soit détectée et validée est dû au manque de fiabilité de l'algorithme relativement à l'image d'origine 3. Pratiquement, ces validations par l'utilisateur sont opérées par une commande simple en utilisant par exemple la souris 17 du terminal 1. La zone candidate 13 initialement invalidée par l'algorithme de détection représente par exemple pour l'utilisateur un défaut local 50 réel dans l'image 3. Le procédé de l'invention permet à l'utilisateur de sélectionner et valider la zone candidate 13 manuellement. Ces sélection et validation manuelles sont effectuées simplement avec un bouton de la souris 17 ou une touche du clavier 12 du terminal 1. Ceci traduit l'interactivité du procédé de l'invention relativement à l'analyse visuelle faite par l'utilisateur.
L'utilisateur peut ainsi pallier facilement et rapidement un manque d'efficacité ou de robustesse du procédé de détection de structures ou d'entités d'images numériques. Le procédé de l'invention permet ainsi d'obtenir quasiment en temps réel un résultat de détection en accord avec les souhaits de l'utilisateur. Une zone candidate ayant été invalidée (ou validée) à tort par l'algorithme de détection peut être immédiatement interactivement validée (ou invalidée) par simple sélection de ladite zone candidate à l'aide de la souris 17 ou du clavier 12 du terminal 1. La position, l'appartenance et le statut de validation des pixels formant une zone candidate sont enregistrés dans une mémoire du terminal 1. Le statut de validation se traduit de façon visuelle par les différentes couleurs des zones candidates apparaissant sur l'écran 2. Le procédé de l'invention permet par simple sélection d'une zone candidate, d'appliquer à tous les pixels de ladite zone, la couleur ou le niveau de gris correspondant au nouveau statut
<Desc/Clms Page number 10>
désiré par l'utilisateur. Quand l'image est restaurée au goût de l'utilisateur, elle peut par exemple être mémorisée ou stockée dans un fichier numérique du terminal 1 ; peut être également imprimée sur un support papier en utilisant par exemple une imprimante 16 connectée au terminal 1.
L'invention a été décrite en référence aux modes de réalisation préférés, mais il est évident que la présente demande englobe toutes les modifications ou variantes pouvant être opérées et correspondant à l'objet de l'invention. En conséquence, les modes de réalisation présentés sont illustratifs et ne sont pas restrictifs quant à la protection revendiquée.
Claims (5)
1. Procédé interactif de sélection et de validation de structures ou d'entités présentes dans au moins une image d'origine numérisée (3) permettant à un utilisateur d'au moins un terminal (1) muni d'au moins un écran d'affichage (2) de valider ou non en temps réel un résultat de détection automatique d'éléments candidats de l'image d'origine et comprenant les étapes suivantes : a) détection automatique par un algorithme de détection de zones candidates (5,6, 7, 8,13) représentatives d'éléments candidats à extraire dans l'image d'origine ; b) validation automatique par l'algorithme de détection, de la détection de certaines zones candidates (5,6, 7,8, 13) réalisée à l'étape a) et représentant les éléments candidats à extraire dans l'image d'origine ; c) enregistrement de la forme, de la position et du statut de validation des zones candidates (5,6, 7,8, 13) et des zones initialement extraites et rejetées (9) lors de la détection ; d) affichage sur l'écran (2) de l'image d'origine (3) accompagnée d'une image numérique (4) de la représentation graphique des zones candidates (5,6,
7,8, 13) traduisant le résultat de détection de ladite image d'origine obtenu aux étapes a) et b) ; e) analyse visuelle de l'image (4) de la représentation graphique des zones candidates par comparaison avec l'image d'origine (3) affichée simultanément sur l'écran (2) ; f) à partir de l'analyse visuelle et du résultat de validation automatique de l'étape b), sélection par l'utilisateur des zones candidates (5, 6, 7,8) ou des parties de zones candidates (6A) qu'il souhaite valider ou invalider ; g) validation par l'utilisateur de la sélection opérée à l'étape f).
2. Procédé selon la revendication 1 dans lequel les codifications numériques de couleurs permettent à l'utilisateur de différencier sur l'écran (2) par des niveaux de gris ou de couleurs différents, chacune des représentations graphiques des zones candidates validées ou invalidées ; lesdits niveaux de gris ou de couleurs des différentes représentations graphiques des zones candidates se différenciant eux-mêmes de la couleur du fond (9) de l'image (4).
<Desc/Clms Page number 12>
3. Procédé selon les revendications 1 et 2 dans lequel l'analyse visuelle est enrichie en animant simultanément sur l'écran (2) l'image d'origine (3) et l'image (4) de la représentation graphique des zones candidates, lorsque l'image d'origine comprend une séquence animée représentant un déroulement continu d'événements successifs basés sur l'animation d'au moins une entité (20) de ladite image d'origine (3).
4. Procédé selon l'une quelconque des revendications précédentes dans lequel la représentation graphique des zones candidates peut être interactivement modifiée par action sur le clavier (12) ou la souris (17) du terminal (1).
5. Procédé selon l'une quelconque des revendications précédentes dans lequel les défauts locaux d'image détectés dans l'image d'origine correspondent à des poussières, des rayures ou des dégradations du support argentique de ladite image d'origine.
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR0111765A FR2829604B1 (fr) | 2001-09-12 | 2001-09-12 | Selection interactive de donnees dans des images numeriques |
| EP02356163A EP1293932A1 (fr) | 2001-09-12 | 2002-08-28 | Sélection interactive de données dans des images numériques |
| JP2002264079A JP2003203235A (ja) | 2001-09-12 | 2002-09-10 | インタラクティブ選択および確認の方法 |
| US10/241,158 US20030048270A1 (en) | 2001-09-12 | 2002-09-11 | Interactive selection of data in digital images |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR0111765A FR2829604B1 (fr) | 2001-09-12 | 2001-09-12 | Selection interactive de donnees dans des images numeriques |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| FR2829604A1 true FR2829604A1 (fr) | 2003-03-14 |
| FR2829604B1 FR2829604B1 (fr) | 2004-01-16 |
Family
ID=8867188
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR0111765A Expired - Fee Related FR2829604B1 (fr) | 2001-09-12 | 2001-09-12 | Selection interactive de donnees dans des images numeriques |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20030048270A1 (fr) |
| EP (1) | EP1293932A1 (fr) |
| JP (1) | JP2003203235A (fr) |
| FR (1) | FR2829604B1 (fr) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19636867C1 (de) * | 1996-09-11 | 1998-01-02 | Philips Patentverwaltung | Störsignalbefreiung von Videosignalen mittels adaptiver Medianfilterung |
| EP0831421A2 (fr) * | 1996-09-08 | 1998-03-25 | Scitex Corporation Ltd. | Procédé et appareil de retouche de la représentation numérique d'une image en couleur |
| US5982350A (en) * | 1991-10-07 | 1999-11-09 | Eastman Kodak Company | Compositer interface for arranging the components of special effects for a motion picture production |
| DE19842572A1 (de) * | 1998-09-17 | 2000-03-23 | Heidelberger Druckmasch Ag | Verfahren zur automatischen Entfernung von Bildfehlern |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5640468A (en) * | 1994-04-28 | 1997-06-17 | Hsu; Shin-Yi | Method for identifying objects and features in an image |
| US5973669A (en) * | 1996-08-22 | 1999-10-26 | Silicon Graphics, Inc. | Temporal data control system |
| JP3264273B2 (ja) * | 1999-09-22 | 2002-03-11 | 日本電気株式会社 | 自動色補正装置及び自動色補正方法並びにその制御プログラムを記録した記録媒体 |
| US6757027B1 (en) * | 2000-02-11 | 2004-06-29 | Sony Corporation | Automatic video editing |
-
2001
- 2001-09-12 FR FR0111765A patent/FR2829604B1/fr not_active Expired - Fee Related
-
2002
- 2002-08-28 EP EP02356163A patent/EP1293932A1/fr not_active Withdrawn
- 2002-09-10 JP JP2002264079A patent/JP2003203235A/ja active Pending
- 2002-09-11 US US10/241,158 patent/US20030048270A1/en not_active Abandoned
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5982350A (en) * | 1991-10-07 | 1999-11-09 | Eastman Kodak Company | Compositer interface for arranging the components of special effects for a motion picture production |
| EP0831421A2 (fr) * | 1996-09-08 | 1998-03-25 | Scitex Corporation Ltd. | Procédé et appareil de retouche de la représentation numérique d'une image en couleur |
| DE19636867C1 (de) * | 1996-09-11 | 1998-01-02 | Philips Patentverwaltung | Störsignalbefreiung von Videosignalen mittels adaptiver Medianfilterung |
| DE19842572A1 (de) * | 1998-09-17 | 2000-03-23 | Heidelberger Druckmasch Ag | Verfahren zur automatischen Entfernung von Bildfehlern |
Non-Patent Citations (1)
| Title |
|---|
| JOYEUX L ET AL: "Detection and removal of line scratches in motion picture films", PROCEEDINGS. 1999 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CAT. NO PR00149), PROCEEDINGS. 1999 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, FORT COLLINS, CO, USA, 23-25 JUNE 1999, 1999, Los Alamitos, CA, USA, IEEE Comput. Soc, USA, pages 548 - 553 Vol. 1, XP010347665, ISBN: 0-7695-0149-4 * |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2003203235A (ja) | 2003-07-18 |
| EP1293932A1 (fr) | 2003-03-19 |
| US20030048270A1 (en) | 2003-03-13 |
| FR2829604B1 (fr) | 2004-01-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12165292B2 (en) | Generating an image mask for a digital image by utilizing a multi-branch masking pipeline with neural networks | |
| US11393100B2 (en) | Automatically generating a trimap segmentation for a digital image by utilizing a trimap generation neural network | |
| JP5081922B2 (ja) | フォトリアルな画像サムネイルを生成する装置及び方法 | |
| JP4755202B2 (ja) | 顔特徴の検出方法 | |
| EP0477351B1 (fr) | Procede et dispositif de modification de zone d'images successives | |
| JP5050075B2 (ja) | 画像判別方法 | |
| EP3832535A1 (fr) | Procédé de détection d'au moins un élément d'intérêt visible dans une image d'entrée au moyen d'un réseau de neurones à convolution | |
| CN113628089B (zh) | 图像处理方法、装置、存储介质及计算机设备 | |
| CN113706636A (zh) | 一种用于篡改图像识别的方法与装置 | |
| FR2907239A1 (fr) | Procede de recherche et de reconnaissance rapides d'une image numerique representative d'au moins un motif graphique dans une banque d'images numeriques | |
| FR2830648A1 (fr) | Procede d'elimination de rayures dans des images numeriques | |
| Lai et al. | Binarization by local k-means clustering for Korean text extraction | |
| Chen et al. | Improved model for image tampering monitoring based on fast-RCNN | |
| FR2829604A1 (fr) | Selection interactive de donnees dans des images numeriques | |
| WO2004013802A2 (fr) | Procede et systeme de localisation automatique de zones de texte dans une image | |
| EP0550101A1 (fr) | Procédé de recalage d'images | |
| Pal et al. | Super-resolution of textual images using autoencoders for text identification | |
| Ranjitha et al. | A review on text detection from multi-oriented text images in different approaches | |
| Hiary et al. | Single-image shadow detection using quaternion cues | |
| de Torres et al. | An efficient approach to automatic generation of time-lapse video sequences | |
| EP4078435A1 (fr) | Procédé de segmentation d'une image d'entrée représentant un document comportant des informations structurées | |
| VidalMata | Rich Embedding Techniques to Improve Scene Understanding | |
| EP2082336B1 (fr) | Procede de recherche et de reconnaissance rapides d'une image numerique representative d'au moins un motif graphique dans une banque d'images numeriques | |
| Nasri et al. | A novel approach to mural enhancement using MSR CAB and lacuna extraction from ancient mural paintings using random forest | |
| FR2861524A1 (fr) | Procede et dispositif de detection de l'orientation d'une image |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| ST | Notification of lapse |
Effective date: 20090529 |