DE60126698T2 - Informationverarbeitungsverfahren - Google Patents

Informationverarbeitungsverfahren Download PDF

Info

Publication number
DE60126698T2
DE60126698T2 DE60126698T DE60126698T DE60126698T2 DE 60126698 T2 DE60126698 T2 DE 60126698T2 DE 60126698 T DE60126698 T DE 60126698T DE 60126698 T DE60126698 T DE 60126698T DE 60126698 T2 DE60126698 T2 DE 60126698T2
Authority
DE
Germany
Prior art keywords
image information
pattern
information
pattern image
main
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60126698T
Other languages
English (en)
Other versions
DE60126698D1 (de
Inventor
Takashi Minato-ku Yamaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of DE60126698D1 publication Critical patent/DE60126698D1/de
Application granted granted Critical
Publication of DE60126698T2 publication Critical patent/DE60126698T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0028Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0051Embedding of the watermark in the spatial domain

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Credit Cards Or The Like (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Informationsverarbeitungsverfahren zum Synthesieren von Hauptbildinformation (die ein Porträtgesichtsbild beispielsweise darstellt) mit Nebenbildinformation (die Zusatzinformation ist, wie Sicherheitsinformation) und ein Speichern des resultierenden synthesierten Bilds auf einem Aufzeichnungsmedium. Das Informationsverarbeitungsverfahren dient auch zum Erfassen der Nebenbildinformation von der aufgezeichneten synthesierten Information.
  • In den vergangenen Jahren hat die Technologie für ein elektronisches Wasserzeichen und eine Signatur mehr Aufmerksamkeit bekommen gemäß der weit verbreiteten Computerisierung von Information und der breiten Anwendung des Internets. Diese Art von Technologie erzeugt synthesierte Bildinformation durch Synthesieren von Haupt- und Nebenbildinformation. Sie ist wirkungsvoll bei der Vorbereitung einer ID Karte, auf der ein Porträtgesichtsbild aufgedruckt ist, und ebenso wirkungsvoll bei der Verhinderung einer illegalen Kopie, Fälschung und Modifikation eines Bilds, in welchem Copyright Information eingebettet ist.
  • „How To Synthesize And Encode Text Data In Color Density Pattern" Journal Published By The Academic Image Electronics Society of Japan, 17-4(1988), Seiten 194–198, offenbart ein Verfahren zum Überlagern von Information auf ein digitales Bild, das in Pseudo-Gradation dargestellt ist.
  • Die japanische Patentanmeldungsveröffentlichung KOKAI Nr. 9-248935 offenbart ein Verfahren zum Einbetten eines monochromen Binärbilds in ein Farbbild unter Verwendung einer Farbempfindlichkeit.
  • Die japanische Patentanmeldungsveröffentlichung KOKAI Nr. 6-10190 offenbart ein Verfahren zum Verhindern einer Fälschung und einer Modifikation einer ID Karte. Gemäß der Referenz wird die ID Karte überlagert mit entweder einem transparenten Film, der ein eindeutiges feinliniges Muster oder Maschenmuster aufweist, oder einem linsenförmigen Film, der eine vorbestimmte Frequenz aufweist. Da Moire-Muster, die dann erzeugt werden, verschieden sind in Abhängigkeit von den Filmen, die auf der ID Karte überlagert sind, können eine Fälschung und Modifikation verhindert werden.
  • Gemäß „How To Synthesize And Encode Text Data in Color Density Pattern" wird die Nebenbildinformation, die in die synthesierte Bildinformation eingebettet ist, reproduziert zur Verifikation, indem die synthesierte Bildinformation gelesen wird durch Verwendung eines Hochauflösungslesemittels und durch Reproduzieren der Nebenbildinformation von der gelesenen Bildinformation. Da ein Hochauflösungslesemittel (Scanner) erforderlich ist zum Lesen der synthesierten Bildinformation, ist die Verifikation nicht einfach.
  • Gemäß der japanischen Patentanmeldungsveröffentlichung KOKAI Nr. 9-248935 wird das eingebettete Nebenbild reproduziert, indem eine blattähnliche Maske auf die synthesierte Bildinformation mit hoher Frequenz gelegt wird. In diesem Fall wird die Nebenbildinformation reproduziert durch genaues Positionieren der blattähnlichen Maske und der synthetischen Bildinformation bezüglich zueinander. Mit anderen Worten, eine extrem hohe Genauigkeit ist notwendig, wenn die synthesierte Bildinformation aufgezeichnet wird, und wenn die Nebenbildinformation reproduziert wird. Da eine einfache Reproduktion der Nebenbildinformation nicht möglich ist, ist eine einfache Verifikation nicht möglich. Ein ähnliches System ist in der EP 0921675 A2 beschrieben.
  • Gemäß der japanischen Patentanmeldungsveröffentlichung KOKAI Nr. 6-10190 wird die Bildinformation, die für die Verifikation verwendet wird, vorbereitet in einen Zustand, bei dem sie leicht von einem Menschen visuell wahrgenommen werden kann. Dies bedeutet, dass die Speicherposition der Information, die im Wesentlichen wichtig für die Verifikation ist, leicht bekannt sein kann. Folglich ist das Verfahren gemäß der Referenz bezüglich Sicherheit nicht zuverlässig.
  • Wie oben beschrieben, hat das herkömmliche Informationsverarbeitungsverfahren das Problem, dass eine einfache Verifikation basierend auf der Nebeninformation für die Sicherheit und die zuverlässige Sicherheit zur Verifikation inkompatibel sind.
  • Aufgabe der Erfindung ist entsprechend die Schaffung eines Informationsverarbeitungsverfahrens, das erlaubt Nebenbildinformation, die mit Hauptbildinformation, die für das bloße Auge eines Menschen erkennbar ist, in einer derartigen Art und Weise zu synthesieren, dass die Synthese selbst durchgeführt wird in einem Zustand, der nicht erkennbar ist für das bloße Auge des Menschen, und der ermöglicht, dass die Nebenbildinformation einfach in einer einfachen Art und Weise erfasst werden kann, wodurch eine einfache Verifikation basierend auf der Nebenbildinformation erhalten wird.
  • Die vorliegende Erfindung gemäß Anspruch 1 liefert ein Informationsverarbeitungsverfahren.
  • Die Erfindung kann durch die folgende detaillierte Beschreibung unter Bezugnahme auf die beigefügten Zeichnungen vollständiger verstanden werden. Es zeigen:
  • 1 ein Flussdiagramm, das den Gesamtfluss des Informationsverarbeitungssystems gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung verdeutlicht;
  • 2 ein schematisches Diagramm, das die Musterbildinformation verdeutlicht;
  • 3 ein Flussdiagramm, das zeigt, wie die Syntheseverarbeitung stattfindet;
  • 4 Rotkomponenten der Hauptbildinformation;
  • 5 Grünkomponenten der Hauptbildinformation;
  • 6 Musterbildinformation;
  • 7 ein Beispiel eines Ergebnisses einer Farbdifferenzmodulation;
  • 8 Rotkomponenten eines Ergebnisses der Überlagerungsverarbeitung;
  • 9 Grünkomponenten eines Ergebnisses der Überlagerungsverarbeitung;
  • 10 ein schematisches Diagramm, das ein Beispiel eines synthesierten Bilds zeigt;
  • 11 ein schematisches Diagramm, das ein Beispiel einer Verifikationsverarbeitung zeigt;
  • 12 ein schematisches Diagramm, das ein Beispiel einer Verifikationsverarbeitung zeigt;
  • 13 eine schematische Ansicht einer ersten Musterbildinformation gemäß dem zweiten Ausführungsbeispiel der Erfindung;
  • 14 eine schematische Ansicht einer zweiten Musterbildinformation gemäß dem zweiten Ausführungsbeispiel der Erfindung;
  • 15 ein Beispiel einer Art und Weise, in der die Hauptbildinformation geteilt wird;
  • 16 wie die geteilte Hauptbildinformation synthesiert wird mit der ersten und zweiten Musterbildinformation;
  • 17 die Rotkomponenten der Hauptbildinformation;
  • 18 die Grünkomponenten der Hauptbildinformation;
  • 19 ein Beispiel der ersten Musterbildinformation;
  • 20 ein Beispiel der zweiten Musterbildinformation;
  • 21 ein schematisches Diagramm, das ein synthesiertes Bild zeigt;
  • 22 eine schematische Ansicht, die ein erstes Beispiel der Verifikationsverarbeitung zeigt;
  • 23 ein schematisches Diagramm, das ein erstes Beispiel der Verifikationsverarbeitung zeigt;
  • 24 ein schematisches Diagramm, das ein zweites Beispiel der Verifikationsverarbeitung zeigt;
  • 25 ein schematisches Diagramm, das ein zweites Beispiel der Verifikationsverarbeitung zeigt;
  • 26 ein schematisches Diagramm, das zeigt, wie die Verifikationsverarbeitung durchgeführt wird;
  • 27 Nebenbildinformation gemäß dem dritten Ausführungsbeispiel der Erfindung; und
  • 28 ein Flussdiagramm, das zeigt, wie die Bildsyntheseverarbeitung durchgeführt wird basierend auf der Binärbildinformation.
  • Ausführungsbeispiele der vorliegenden Erfindung werden jetzt unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • Zuerst wird das erste Ausführungsbeispiel beschrieben.
  • 1 zeigt ein Flussdiagramm, das den Gesamtfluss des Bildverarbeitungsverfahrens gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung zeigt. Der Gesamtfluss des Informationsverarbeitungsverfahrens wird unter Bezugnahme auf dieses Flussdiagramm beschrieben.
  • In 1 ist eine Hauptbildinformation 101 ein Porträtgesichtsbild, das zur Identifikation verwendet wird. Die Hauptbildinformation 101 enthält digitale Daten. Sie wird vorbereitet durch Lesen eines fotografierten Porträtgesichtsbilds durch eine Scannereingabeverarbeitung 106 oder durch Fotografieren des Gesichts einer Person durch eine Kamerafotografierverarbeitung 107.
  • Die Musterbildinformation 102, die Nebenbildinformation ist, wird vorbereitet entweder durch eine Musterbildeingabeverarbeitung 108 oder durch eine Musterbildvorbereitungsverarbeitung 109. Die Musterbildeingabeverarbeitung 108 wird durchgeführt, wenn ein Musterbild extern eingegeben wird. Die Musterbildvorbereitungsverarbeitung 109 wird durchgeführt, wenn ein Musterbild vorbereitet wird auf der Basis eines vorbestimmten Musters. In dem ersten Ausführungsbeispiel ist die Musterbildinformation 102 in der Form eines Musters, wobei die Einheitengröße ein Rechteck mit 4 Pixel (horizontal)×2 Pixel (vertikal) ist, und welches ausgedrückt wird als ein zyklisches Muster von schwarzen und weißen Rechtecken.
  • Durch die Syntheseverarbeitung 110 werden die Hauptbildinformation 101 und die Musterbildinformation 102 synthesiert, um eine synthesierte Bildinformation 103 zu erhalten. In der synthesierten Bildinformation 103 wird die Musterbildinformation 102 in die Hauptbildinformation 101 eingebettet in einen Zustand, der nicht erkannt werden kann mit dem bloßen Auge eines Menschen. Die Details der Syntheseverarbeitung 110 werden später beschrieben.
  • Durch die Druckverarbeitung 110 wird ein Synthesebild 104, das auf der Synthesebildinformation 103 basiert, auf eine ID Karte 105 gedruckt. Eine Bildbildungsvorrichtung, wie beispielsweise ein Thermosublimationsdrucker, wird verwendet für die Druckverarbeitung 110. Diese Bildbildungsvorrichtung druckt (speichert) das Bild basierend auf der Synthesebildinformation an einer Gesichtsbilddruckposition auf der ID Karte 105, die ein Aufzeichnungsmedium ist. Das Synthesebild 104, das auf die ID Karte 105 durch die Druckverarbeitung 111 gedruckt wird, wird als Gesichtsbild für die Identifikation verwendet. Für das bloße Auge eines Menschen sieht das Synthesebild 104 aus, als ob es das gleiche wäre wie die Bildinformation 101.
  • Die ID Karte 105, die in dieser Art und Weise vorbereitet ist, kann einer Verifikationsverarbeitung 112 unterworfen werden, um die Authentizität zu bestimmen. Es sei angenommen, dass eine blattähnliche Maske (im Folgenden als Maskenblatt bezeichnet) 113 vorbereitet wird durch die Maskenvorbereitungsverarbeitung 115. Das Maskenblatt 113 hat das gleiche Muster von Lichtübertragungsfaktor wie die Musterbildinformation 102. Das Maskenblatt 113 wird auf das Synthesebild 104 auf der ID Karte 105 gelegt, und relativ zu dem Synthesebild 104 bewegt. Die relative Bewegung zwischen dem Maskenblatt 113 und dem Synthesebild 104 ist entweder eine lineare Bewegung oder Rotation. In dem Fall einer linearen Bewegung ist diese entweder vertikal oder horizontal. Im Falle der Drehung ist das Maskenblatt 113 oder das Synthesebild 104 fixiert, und das andere gedreht.
  • Wenn die ID Karte authentisch ist, erzeugt die relative Bewegung zwischen dem Maskenblatt 113 und dem Synthesebild 104 Moiréstreifen, deren Prinzip später beschrieben wird. Mit anderen Worten, wenn diese Moiréstreifen erzeugt werden, kann bestimmt werden, dass die ID Karte 105 authentisch ist. Wenn die relative Bewegung zwischen dem Maskenblatt 113 und dem Synthesebild 104 keine Moiréstreifen erzeugt, dann kann bestimmt werden, dass die ID Karte eine Fälschung ist.
  • Eine Beschreibung wird gegeben, wie die Musterbildinformation 102 vorzubereiten ist. Die Musterbildinformation 102 ist speziell ein Gittermuster mit vorbestimmten Zyklen. Wie in 2 gezeigt, enthält die Musterbildinformation des ersten Ausführungsbeispiels rechteckige schwarze Muster 201 und rechteckige weiße Muster 202. Diese rechteckigen Muster, die jeweils gebildet sind durch 4 Pixel (horizontal)×2 Pixel (vertikal), sind in einem zyklischen Muster angeordnet. (Die Periode des zyklischen Musters des Gitternetzes entspricht 8 Pixeln in horizontaler Richtung und 4 Pixeln in vertikaler Richtung.) Die vertikale Größe und die horizontale Größe der Musterbildinformation sind relative Dimensionen, und die horizontale Größe muss nicht größer als die vertikale Größe sein.
  • Die horizontale Pixelgröße und die vertikale Pixelgröße des Gittermusters müssen das folgende Verhältnis erfüllen: a/b > 1wobei a eine größere Zahl zwischen der horizontalen Größe und der vertikalen Größe des Gitternetzes der Musterbildinformation ist, b eine kleinere Zahl zwischen diesen ist. Vorzugsweise ist das Verhältnis a/b in dem Bereich von 2 bis 8.
  • Die Syntheseverarbeitung 110 wird unter Bezugnahme auf die 3 bis 8 beschrieben.
  • Die Hauptbildinformation 101 (101R, 101G, 101B) ist Bildinformation über ein natürliches Bild, beispielsweise ein Gesichtsbild zur Identifikation. Die Hauptbildinformation 101 ist angenommen als 24 Bit Information pro Pixel enthaltend (8 Bits für jedes von „R", „G" und „B" in dem Bereich von 0 bis 255).
  • Die 4 und 5 zeigen ein Beispiel der Hauptbildinformation 101. Zur Vereinfachung sei angenommen, dass die Hauptbildinformation 101 gleichmäßig grau ist, dargestellt durch (R, G, B) = (127, 127, 127), und ist teilweise ausgeschnitten, um eine Größe von 12×12 Pixeln zu haben. 4 zeigt die Rotkomponenten 101R der Hauptbildinformation 101, und 5 zeigt deren Grünkomponenten 101G. Die Darstellung der Blaukomponenten ist weggelassen.
  • 6 zeigt ein Beispiel der Musterbildinformation 102. Die Musterbildinformation 102 ist aus einem Gittermuster mit regelmäßigen Zyklen gebildet. Die Musterbildinformation 102 ist in die Hauptbildinformation 101 eingebettet in einem Zustand, der für das bloße Auge eines Menschen nicht erkennbar ist. Die Musterbildinformation 102 enthält 1-Bit Information pro Pixel (in dem Bereich von 0 bis 255).
  • Ähnlich der Hauptbildinformation 101 ist die Musterbildinformation 102 angenommen als teilweise ausgeschnitten, um eine Größe von 12×12 Pixeln zu haben, wie in 6 gezeigt. Die Musterbildinformation 102 ist ein Gittermuster, wobei die Einheitengröße ein Rechteck von 4 Pixeln (horizontal)×2 Pixeln (vertikal) ist, und das ausgedrückt ist als ein zyklisches Muster von schwarzen und weißen Rechtecken. In der Musterbildinformation 102 ist die schwarze Farbe angegeben durch „1", und die weiße Farbe ist angegeben durch „0".
  • Zuallererst wird der Farbdifferenzmodulationsverarbeitungsschritt 301 durchgeführt. In diesem Schritt wird die Musterbildinformation 102 einer Farbdifferenzmodulationsverarbeitung unterworfen, unter Verwendung der Regeln, die ausgedrückt sind durch die folgenden Gleichungen (a-1) und (a-2). Durch diese Verarbeitung erzeugt der Farbdifferenzmodulationsverarbeitungsschritt 301 eine Farbdifferenzmodulationsmusterbildinformation. Gemäß dem Farbdifferenzmodulationsverarbeitungsschritt 301 werden schwarze und weiße Pixel zugeordnet in Übereinstimmung mit den Werten der Pixel der Musterbildinformation 102 in einer derartigen Art und Weise, dass ein schwarzes Pixel „+1" und ein weißes Pixel „–1" bekommt. Jeder der Werte wird multipliziert mit einer Farbdifferenzmodulationsgröße ΔV. Diese Farbdifferenzmodulationsgröße ΔV ist in dem Bereich von 0 bis 255 und wird vorher bestimmt. In dem Farbdifferenzmodulationsverarbeitungsschritt 301 wird diese Verarbeitung durchgeführt für jede Musterbildinformation 102. 7 zeigt ein Beispiel eines Ergebnisses der Farbdifferenzmodulation 102'. CDMP (i, j) = (+1)·ΔV..., wenn PAT (i, j) = (schwarz) (a-1) CDMP (i, j) = (–1)·ΔV..., wenn PAT (i, j) = (weiß) (a-2)wobei CDMP (i, j) den Wert der Farbdifferenzmodulationsmusterbildinformation darstellt genommen bei der Position, die angegeben ist durch (x = i, y = j), PAT (i, j) repräsentiert den Wert der Musterbildinformation genommen an der Position, die angegeben ist durch (x = i, y = j), und ΔV repräsentiert eine Farbdifferenzmodulationsgröße.
  • Die Farbdifferenzmodulationsgröße ΔV ist ein ganzzahliger Wert im Bereich von 0 bis 255 und wird vorher bestimmt. Je größer die Farbdifferenzmodulationsgröße ΔV ist, desto höher der Visualisierungskontrast zum Zeitpunkt der Verifikation. In diesem Fall ist die Verifikation einfach, aber die Synthesebildinformation ist anfällig für nachteilige Effekte und kann eine schlechte Bildqualität zur Folge haben. Folglich ist es wünschenswert, dass die Farbdifferenzmodulationsgröße ΔV innerhalb des Bereichs von 16 bis 96 liegt. In dem vorliegenden Ausführungsbeispiel ist ΔV = 48.
  • In einem Überlagerungsverarbeitungsschritt 302, der nachfolgend durchgeführt wird, wird die Farbdifferenzmodulationsmusterbildinformation, die in dem oben beschriebenen Verarbeitungsprozess gewonnen wurde, synthesiert mit der Hauptbildinformation 101, die vorher vorbereitet wurde, um eine Synthesebildinformation 103 zu erhalten (103R, 103G, 103b). In dem Überlagerungsverarbeitungsschritt 302 wird die Überlagerungsverarbeitung, die angegeben ist durch die Formeln (b-1) bis (b-3) wie folgt durchgeführt. DES – R(i, j) = SRC – R(i, j) + CDMP(i, j) (b-1) DES – G(i, j) = SRC – G(i, j) – CDMP(i, j) (b-2) DES – B(i, j) = SRC – B(i, j) – CDMP(i, j) (b-3)wobei DES-R(i, j) den Wert der Synthesebildinformation repräsentiert an der Position, die angegeben ist durch (x = i, y = j) (Rotkomponenten), DES-G(i, j) repräsentiert den Wert der Synthesebildinformation an der Position, die angegeben ist durch (x = i, y = j) (Grünkomponenten), DES-B(i, j) repräsentiert den Wert der Synthesebildinformation an der Position, die angegeben ist durch (x = i, y = j) (Blaukomponenten), SRC-R(i, j) repräsentiert den Wert der Hauptbildinformation an der Position, die angegeben ist durch (x = i, y = j) (Rotkomponenten), SRC-G(i, j) repräsentiert den Wert der Hauptbildinformation an der Position, die angegeben ist durch (x = i, y = j) (Grünkomponenten), und SRC-B(i, j) repräsentiert den Wert der Hauptbildinformation an der Position, die angegeben ist durch (x = i, y = j) (Blaukomponenten).
  • DES-R(i, j), DES-G(i, j) und DES-B(i, j) sind ganzzahlige Werte in dem Bereich von 0 bis 255. Wenn also ein Ergebnis der Berechnung kleiner als „0" ist, wird es auf „0" gesetzt, und wenn es größer als „255" ist, wird es auf „255" gesetzt.
  • Die 8 und 9 zeigen Ergebnisse der Überlagerungsverarbeitung. 8 gibt den Fall von Rotkomponenten an, und 9 gibt den Fall von Grünkomponenten an.
  • Wie man aus den Formeln (a-1) und (a-2) sehen kann, nimmt der Koeffizient für die Farbdifferenzmodulationsgröße ΔV abwechselnd die Werte von „+1" und „–1" an gemäß dem Zyklus der Musterbildinformation 102. Wenn eine Integration durchgeführt wird bezüglich eines Zyklus der Musterbildinformation 102 löschen sich die Werte der Farbdifferenzmodulationsgröße gegenseitig aus, und das Ergebnis der Integration ist folglich annähernd 0. Folglich sind die folgenden Formeln erfüllt bezüglich der Zyklen des Gittermusters der Musterbildinformation 102. ΣDES – R(i, j) = ΣSRC – R(i, j) (i-1) ΣDES – G(i, j) = ΣSRC – G(i, j) (i-2) ΣDES – B(i, j) = ΣSRC – B(i, j) (c-3)
  • Diese Formeln (c-1) bis (c-3) sind erfüllt für jeden Bereich des Bilds. Folglich bleibt die Gesamterscheinung der Hauptbildinformation 101 unverändert, selbst nachdem die Hauptbildinformation in die Synthesebildinformation 103 integriert worden ist.
  • Der Durchschnitt der Datenwerte der 12×12 Pixel, wie in den 8 und 9 gezeigt, beträgt „127". Man sieht daraus, der statistische Wert (Durchschnittswert) der Datenwerte der Hauptbildinformation wird gespeichert. Die Bildinformation, die der Überlagerungsverarbeitung unterworfen wird (also die Synthesebildinformation), kann von der Hauptbildinformation verschieden sein, wenn eine Dämpfung für die Datenwerte jedes individuellen Pixels bezahlt wird. Von einem makroskopischen Standpunkt aus ist es jedoch schwer, zwischen der Synthesebildinformation und der Hauptbildinformation zu unterscheiden. Die statistischen Werte der Hauptbildinformation, wie der Durchschnittswert, werden bewahrt. Dies ist so, weil die Synthesebildinformation und die Hauptbildinformation gleich aussehen von einem makroskopischen Standpunkt aus betrachtet, beispielsweise wenn sie auf der Basis einer Größe von 12×12 Pixeln betrachtet werden.
  • Aus den Formeln (a-1) und (a-2) nimmt der Koeffizient der Farbdifferenzmodulationsgröße ΔV abwechselnd die Werte von „+1" und „–1" an gemäß dem Zyklus der Musterbildinformation 102. Es soll erwähnt werden, dass die Vorzeichen der Koeffizienten der grünen und blauen Komponenten die gleichen sind, aber die Vorzeichen des Koeffizienten der roten Komponenten voneinander verschieden sind. Dies ist so, um die Komplementärfarbbeziehung zu verwenden. In dem ersten Ausführungsbeispiel werden die Rot- und die Cyanfarbe als Komplementäre verwen det. Wenn das Vorzeichen der Rotkomponenten positiv (+) ist, werden die Vorzeichen der Komplementärfarben, also Grün und Blau, auf negativ gesetzt (–). Umgekehrt, wenn das Vorzeichen der Rotkomponenten negativ (–) ist, werden die Vorzeichen der Komplementärfarben Grün und Blau positiv (+) gesetzt.
  • In dieser Weise, wenn die Vorzeichen der Formeln (a-1) und (a-2) bestimmt werden, wird der Wert der Musterbildinformation 102 gesetzt, um der von „Schwarz" oder „Weiß" zu sein. Wenn der Wert der Musterbildinformation 102 der von „Schwarz" ist, werden die Werte der Synthesebildinformation 103 derart bestimmt, dass „Rot" betont wird. Wenn der Wert der Musterbildinformation 102 der von „Weiß" ist, werden die Werte der Synthesebildinformation 103 derart bestimmt, dass „Cyan" betont wird. In der Synthesebildinformation 103 werden folglich die Rot- und Cyan-Gitternetzfarbkomponenten an Positionen eingebettet entsprechend den Gitterzyklen der Musterbildinformation 102.
  • In 8 betonen die Pixel, deren Datenwerte 175 ist, „Rot", während Pixel, deren Datenwerte gleich 79 ist, „Cyan" betonen.
  • In denjenigen Pixeln, die viel „Rot" Komponenten haben, sind ein paar „Grün" und „Blau" Komponenten vorhanden. Umgekehrt, in denjenigen Pixeln, die ein paar „Rot" Komponenten haben, sind viele „Grün" und „Blau" Komponenten vorhanden. Da die Rotfarbe und die Cyanfarben (also die Grün- und die Blaufarben) komplementär sind, ist es schwer zwischen Rot und Cyan zu unterscheiden, wenn diese Farben benachbart zueinander sind. Für das menschliche Auge sehen sie aus als ob sie farblos wären. In dem in 8 gezeigten Beispiel werden die Pixel, die reich an Rotfarbe sind, und die Pixel, die reich an Cyanfarbe sind, abwechselnd in einem zyklischen Muster angeordnet entsprechend dem zyklischen Muster des Gitternetzes der Musterbildinformation 102. Dies bedeutet, dass die Pixel, die die Rotfarbe hervorheben (also die Pixel, deren Farbwert gleich 175 ist), und die Pixel, die die Cyanfarbe hervorheben (also die Pixel, deren Datenwert 79 ist), in regulären Zyklen angeordnet. Wenn die Pixeldichte hoch ist, können leichte Differenzen zwischen der Rotfarbe und den Cyanfarben (Komplementärfarben) schwer von dem Auge eines Menschen wahrgenommen werden. Für das menschliche Auge sind die Farbdifferenzen „0".
  • Wie man aus dem Vorangegangenen sehen kann, nimmt ein Mensch die Synthesebildinformation und die Hauptbildinformation als identisch an, und folglich erkennt er nicht das Bild, das eingebettet worden ist. (Synthesebildinformation) ≒ (Hauptbildinformation) (d)
  • Basierend auf den obigen Prinzipien ist es möglich Synthesebildinformation 103 vorzubereiten, wobei die Musterbildinformation 102 eingebettet ist in die Hauptbildinformation 101 in einem Zustand, der nicht erkennbar ist. Durch Drucken oder Aufzeichnen der obigen Synthesebildinformation 103 durch einen Hochauflösungsdrucker (beispielsweise 300 dpi Thermosublimationsdrucker) ist es schwer oder unmöglich für das menschliche Auge einen Unterschied zwischen der Synthesebildinformation und der Hauptbildinformation wahrzunehmen.
  • Die Synthesebildinformation 103 sieht aus wie herkömmliche Bildinformation, und Bildformate für eine Allzweckverwendung (beispielsweise JPEG und TIFF) können angewendet werden. Darüber hinaus kann die Synthesebildinformation 103 verarbeitet werden unter Verwendung einer Anwendung, die angepasst ist an die Verarbeitung allgemeiner Typen von Bildinformation. Entsprechend kann das erforderliche System einfach realisiert werden. Selbst wenn die Synthesebildinformation in ein anderes Bildformat umgewandelt wird, bleibt die eingebettete Musterbildinformation 102 die gleiche, und die Umwandlung gibt keinerlei Veranlassung für irgendwelche Probleme.
  • Die Synthesebildinformation 103 wird gedruckt oder aufgezeichnet durch einen Hochauflösungsfarbdrucker (beispielsweise einen Thermosublimationsdrucker), und die resultierende Information wird auf eine ID Karte oder dergleichen aufgebracht. Folglich prüft ein System, das bestimmt, ob die ID Karte 105 authentisch ist, oder nicht, die Information, die in der Synthesebildinformation 103, die auf der ID Karte 105 aufgebracht ist, und bestimmt, ob die ID Karte 105 authentisch ist, basierend auf der Prüfung. Mit anderen Worten, die Musterbildinformation 102, die Nebenbildinformation ist, die unsichtbar eingebettet ist in das Verifikationsverwendungsgesichtsbild der ID Karte, wird erfasst, um zu bestimmen, ob die ID Karte 105 authentisch ist.
  • Die Musterbildinformation 102, die die Nebenbildinformation ist, wird erfasst durch Verwendung des Maskenblatts 113, und dieses Maskenblatt 113 wird basierend auf der Musterbildin formation gemäß 6 vorbereitet. In Ausdrücken der Pixelgröße oder Pixelposition entspricht das Maskenblatt 113 der Hauptbildinformation 101 mit einer 1:1 Beziehung. Die Musterbildinformation 102 ist gebildet aus schwarzen Mustern und transparenten Mustern. Die schwarzen Muster haben einen Wert von „1" und erlauben keine Übertragung von Licht, während die transparenten Muster einen Wert von „0" haben und eine Lichtübertragung erlauben. Das Maskenblatt 113 wird physikalisch über das Synthesebild 104 gelegt, das auf die ID Karte gedruckt ist.
  • 10 zeigt ein schematisches Diagramm, das das Synthesebild 104 in dem gedruckten Zustand zeigt. Dort, wo das Synthesebild 104 vorbereitet ist auf der Basis der „gleich grauen" Hauptbildinformation 101, sind rote und cyan zyklische Muster als Gittermuster eingebettet. In 10 sind die Pixel, die angegeben sind durch „R" Pixel, die reich an Rot sind, während die Pixel, die durch „C" angegeben sind, Pixel sind, die reich an Cyan sind.
  • Die 11 und 12 zeigen schematisch, wie das Synthesebild 104 gemäß 10 sein wird, wenn es überlagert wird mit dem Maskenblatt 113, wie oben beschrieben. 11 zeigt den Fall, bei dem das Synthesebild 104 und das Maskenbild 113 genau relativ zueinander positioniert sind. 12 zeigt den Fall, bei dem das Synthesebild 104 und das Maskenbild 113 voneinander um eine halbe Periode des zyklischen Gittermusters verschoben sind. In 11 und 12 sind die Pixel, die gestrichelt angegeben sind, diejenigen Pixel, die durch das Maskenblatt 113 maskiert werden.
  • In 11 sind die Pixel, die mit dem Buchstaben „R" angegeben sind, maskiert, und die Pixel, die durch den Buchstaben „C" angegeben sind, sind beobachtbar als transparent. In diesem Zustand sieht folglich das Gitternetz wie ein Cyangitternetz aus mit teilweise abgedeckt mit einer schwarzen Maske. In 12 werden die Pixel, die mit dem Buchstaben „C" angegeben sind, maskiert, und die Pixel, die mit dem Buchstaben „R" angegeben sind, sind beobachtbar als transparent. In diesem Zustand sieht das Gitternetz folglich wie ein rotes Gitternetz aus mit einer schwarzen Maske teilweise abgedeckt.
  • Wenn das gedruckte Synthesebild 104 mit dem Maskenblatt 113 überlagert betrachtet wird, wird ein Zustand gemäß 11, der Zustand gemäß 12 oder ein Zustand zwischen denen gemäß den 11 und 12 beobachtet. Wenn das gedruckte Synthesebild 104 fixiert ist, wird das Maskenblatt 113 vertikal oder horizontal relativ dazu bewegt, die Zustände gemäß den 11 und 12 werden abwechselnd beobachtet. In anderen Worten, die Cyan- und Rotgitter, die teil weise mit der schwarzen Maske abgedeckt sind, werden abwechselnd beobachtet. Ob das Synthesebild 104 authentisch ist oder nicht, kann nicht bestimmt werden durch Überprüfen, ob das rote oder cyan Gitter abwechselnd beobachtet wird, wenn das Maskenblatt bewegt wird.
  • Die relative Bewegung zwischen dem gedruckten Synthesebild 104 und dem Maskenblatt 113 muss nicht genau gesteuert werden. Statt der oben beschriebenen vertikalen oder horizontalen Bewegung kann eine Drehbewegung verwendet werden. In diesem Fall werden Moiréstreifen beobachtet aufgrund der leichten Verschiebung zwischen dem schwarzen Gitter des Maskenblatts 113 und dem roten oder cyan Gitter, das teilweise abgedeckt ist. Die Authentizitätsbestimmung kann erfolgen auf der Basis des Vorhandenseins derartiger Moiréstreifen.
  • Eine Beschreibung wird jetzt gegeben für ein zweites Ausführungsbeispiel.
  • In dem zweiten Ausführungsbeispiel ist die Musterbildinformation 102, die als Nebenbildinformation dient, gebildet durch eine Mehrzahl von Stücken (N Stücke). Referenz erfolgt auf den Fall, bei dem N = 2 ist.
  • Die 13 und 14 zeigen zwei Arten von Musterbildinformation. Die erste Musterbildinformation 102a ist ähnlich zu der Musterbildinformation 102 gemäß dem ersten Ausführungsbeispiel. Die zweite Musterbildinformation 102b ist vorbereitet durch Drehen der ersten Musterbildinformation 102a um 90 Grad im Uhrzeigersinn.
  • Obwohl Bezug genommen wird auf den Fall, bei dem N = 2 ist, in Verbindung mit dem zweiten Ausführungsbeispiel, kann die Anzahl an Stücken der Musterbildinformation 102 willkürlich bestimmt werden. Die Musterbildinformation, die also verwendet wird als eine Referenz wird zuerst vorbereitet, und dann werden die anderen Stücke der Musterbildinformation vorbereitet durch Drehen der Referenzmusterbildinformtion mit verschiedenen Winkeln. In dem Fall, bei dem N = 3 ist, werden beispielsweise ein zweites und drittes Stück der Musterbildinformation vorbereitet durch Drehen der Referenzmusterbildinformation um 40 Grad bzw. 90 Grad.
  • Als nächstes werden Vorbereitungen für die Syntheseverarbeitung 110 gemacht. Wie in den 15 und 16 gezeigt, wird die Hauptbildinformation 101 in N Stücke unterteilt. Die Art und Weise, in der das Unterteilen erfolgt, ist optional. In dem zweiten Ausführungsbeispiel wird die Hauptbildinformation 101 in gleiche Stücke geteilt, also Bereich A (die linke Hälfte) und Bereich B (die rechte Hälfte). Die zwei Stücke 102a und 102b der Musterbildinformation haben diese zwei Bereiche A und B zugewiesen bekommen. Wie in 16 gezeigt, wird der ersten Musterbildinformation 102a der Bereich A zugeordnet, und der zweiten Musterbildinformation 102b wird der Bereich B zugeordnet.
  • In der Syntheseverarbeitung 110 kann das gleiche Verfahren, wie oben in Verbindung mit dem ersten Ausführungsbeispiel beschrieben, verwendet werden, ohne irgendeine Modifikation. Die erste Synthesebildinformation wird also vorbereitet durch Synthesieren der ersten Musterbildinformation 102a mit dem Bereich A der Hauptbildinformation 101. Ähnlich wird die zweite Synthesebildinformation vorbereitet, indem die zweite Musterbildinformation 102b mit dem Bereich B der Hauptbildinformation 101 synthesiert wird. Durch einfaches Kombinieren dieser zwei Stücke von Synthesebildinformation enthält das resultierende Synthesebild zwei Arten von Musterbildinformation. Das Synthesebild, das in dieser Weise vorbereitet wird, wird durch einen Hochauflösungsfarbdrucker ausgedruckt, so dass es als ein Identifikationsbild einer ID Karte verwendet werden kann.
  • Ein Beispiel der Hauptbildinformation 101, die in dem zweiten Ausführungsbeispiel verwendet wird, ist in den 17 und 18 gezeigt. Wie in dem ersten Ausführungsbeispiel wird die Hauptbildinformation 101 gemäß dem zweiten Ausführungsbeispiel angenommen als gleichmäßig grau, dargestellt durch (R, G, B) = (127, 127, 127), und teilweise ausgeschnitten, um eine Größe von 12×12 Pixeln zu haben. 17 verdeutlicht Rotkomponenten der Hauptbildinformation 101, und 18 verdeutlicht deren Grünkomponenten. Die Darstellung der Blaukomponenten ist weggelassen.
  • In den 17 und 18 bildet der Bereich, der durch die Koordinaten x = 0 bis 5 definiert ist, den Bereich A, und der Bereich, der durch die Koordinaten x = 6 bis 11 definiert ist, bildet den Bereich B. Die Ein-Punkt-Kettenlinie gibt die Grenze zwischen diesen zwei Bereichen A und B an.
  • Die 19 und 20 zeigen Beispiele von Musterbildinformation 102a bzw. 202b.
  • 20 zeigt Beispiele der Musterbildinformation 102a und 102b. Die erste Musterbildinformation 102a in 19 verwendet ein Muster ähnlich zu dem der Musterbildinformation 102 gemäß dem ersten Ausführungsbeispiel, und ist teilweise ausgeschnitten, um eine Größe von 6×12 Pixeln zu haben. Die zweite Musterbildinformation 102b in 20 wird erhalten durch ein ers tes Drehen der Musterbildinformation 102 des ersten Ausführungsbeispiels um 90 Grad in Uhrzeigersinnrichtung, und ein teilweises Ausschneiden, um eine Größe von 6×12 Pixeln zu haben.
  • Wie oben beschrieben, wird der Bereich-A Teil der Hauptbildinformation 101 synthesiert mit der ersten Musterbildinformation 102a in einem ähnlichen Verfahren, wie das, das in Verbindung mit dem ersten Ausführungsbeispiel beschrieben wurde. Ähnlich wird der Bereich-B Teil der Hauptbildinformation 101 synthesiert mit der zweiten Musterbildinformation 102b in einem ähnlichen Verfahren, wie das, das in Verbindung mit dem ersten Ausführungsbeispiel beschrieben wurde. Die Ergebnisse dieser Syntheseoperationen werden lediglich miteinander kombiniert, um eine Synthesebildinformation zu erhalten. Ein schematisches Diagramm, das das resultierende Synthesebild darstellt, ist in 21 gezeigt. In 21 sind die Pixel, die mit den Buchstaben „R" angegeben sind, die Pixel, die reich an Rot sind, und die Pixel, die mit dem Buchstaben „C" angegeben sind, sind Pixel, die reich an Cyan sind.
  • Zur Authentizitätsbestimmung wird ein erstes Maskenblatt 113a vorher vorbereitet von der ersten Musterbildinformation 102a. Das Maskenblatt 113a wird auf das gedruckte Synthesebild 104 gelegt, wie in dem ersten Ausführungsbeispiel. Die Zustände, in denen das erste Maskenblatt 113 gelegt wird, sind schematisch verdeutlicht in den 22, 23, 24 und 25.
  • 22 zeigt den Fall, bei dem das Synthesebild 104 und das Maskenblatt 113 genau relativ zueinander positioniert sind. 23 zeigt den Fall, bei dem das Synthesebild und das Maskenbild 113 voneinander um eine halbe Periode des zyklischen Gittermusters verschoben sind. In den 22 und 23 sind die Pixel, die gestrichelt angegeben sind, diejenigen Pixel, die durch das Maskenblatt 113a maskiert werden.
  • 24 zeigt den Fall, bei dem das Synthesebild 104 und das 90 Grad gedrehte Maskenblatt 113 genau relativ zueinander positioniert sind. 25 zeigt den Fall, bei dem das Synthesebild 104 und das 90 Grad gedrehte Maskenblatt 113 voneinander mit einer halben Periode des zyklischen Gittermusters verschoben sind. In den 24 und 25 sind die Pixel, die gestrichelt angegeben sind, diejenigen Pixel, die durch das Maskenblatt 113a maskiert werden.
  • Bezugnehmend auf 22, werden in dem Bereich A und auf einem Teil der Grenze zwischen den Bereichen A und B nur die Pixel, die mit dem Buchstaben „C" angegeben sind, als transparent beobachtet. Andererseits werden in dem Bereich B die Pixel, die mit dem Buchstaben „R" und die Pixel, die mit dem Buchstaben „C" angegeben sind, beobachtet. Mit anderen Worten, Rot- und Cyanfarben, werden in dem gemischten Zustand beobachtet. Da diese zwei Farben (Rot und Cyan) komplementär zueinander sind, ist es schwer, sie mit dem bloßen menschlichen Auge zu unterscheiden, solange die Pixel in einer Dichte von mindestens 300 dpi gedruckt sind. In diesem Zustand wird folglich ein Cyan Gitter beobachtet zwischen den schwarzen Masken in dem Bereich A, und das, was man in dem Bereich B sieht, ist verwischt und kein Bild wird beobachtet.
  • Bezugnehmend auf 23, werden in dem Bereich A und auf einem Teil der Grenze zwischen den Bereichen A und B nur die Pixel, die mit dem Buchstaben „R" angegeben sind, als transparent beobachtet. Andererseits, in dem Bereich B werden die Pixel, die mit dem Buchstaben „R" angegeben sind, und die Pixel, die mit dem Buchstaben „C" angegeben sind, in dem gemischten Zustand beobachtet. In diesem Zustand wird folglich das rote Gitternetz beobachtet zwischen den schwarzen Masken in dem Bereich A, und was in dem Bereich B gesehen wird ist verwischt und kein Bild wird beobachtet.
  • Wenn das gedruckte Synthesebild 104, das mit dem Maskenblatt 113a überlagert ist, betrachtet wird, ist das, was man beobachtet, der Zustand gemäß 22, der Zustand gemäß 23 oder der Zwischenzustand zwischen diesen in 22 und 23 gezeigten. Wenn das gedruckte Synthesebild 104 fixiert ist, wird das Maskenblatt 113a vertikal oder horizontal relativ dazu bewegt, die Zustände gemäß den 22 und 23 werden abwechselnd beobachtet. In anderen Worten, nur in dem Bereich A werden das Cyan und das rote Gitternetz, das teilweise mit der schwarzen Maske abgedeckt ist, abwechselnd beobachtet. In dem Bereich B ist das Bild verwischt und kein klares Muster wird beobachtet.
  • 26 zeigt ein schematisches Diagramm, das verdeutlicht, wie die Verifikationsverarbeitung durchgeführt wird. Wenn das Maskenblatt 113a relativ zu dem Synthesebild bewegt wird, erscheinen nur das rote und cyan Gitter abwechselnd in dem Bereich A. Alternativ werden Moiréstreifen erzeugt, und Änderungen werden dadurch erzeugt in dem Bild, das beobachtet wird. Basierend auf dem Vorhandensein oder dem Fehlen derartiger Änderungen ist es möglich zu bestimmen, ob das Synthesebild 104 authentisch ist.
  • Eine Beschreibung wird jetzt gegeben für das dritte Ausführungsbeispiel.
  • Das dritte Ausführungsbeispiel verwendet erste und zweite Musterbildinformation 102a und 102b, die ähnlich sind zu denen, wie oben in Verbindung mit dem zweiten Ausführungsbeispiel beschrieben. Gemäß dem dritten Ausführungsbeispiel wird ein Bereich unterteilt basierend auf Bildinformation (Binärbildinformation), die die Binärwerte (schwarz und weiß) von Buchstaben oder Symbolen darstellt, und die erste und zweite Musterbildinformation 102a und 102b werden angewendet für die Divisionen des Bereichs. Wie in dem ersten und zweiten Ausführungsbeispiel kann die Hauptbildinformation 101 ein fotografiertes natürliches Bild sein, wie eine Landschaft oder ein Gesichtsbild zur Identifikation. Die Binärbildinformation kann vorher vorbereitet werden, alternativ ist es möglich, sie extern bereitzustellen, wenn die Synthesebildinformation vorzubereiten ist.
  • 27 verdeutlicht ein Beispiel einer Art und Weise, in der die erste und zweite Musterbildinformation 102a und 102b verwendet wird für die Binärbildinformation 400, die in kleine Bereiche unterteilt ist. In dem Beispiel gemäß 27 werden die erste und die zweite Musterbildinformation 102a und 102b angewendet für die Bilder (410 bis 419) der Ziffern „0" bis „9", und Bilder (410a bis 410f) der alphabetischen Buchstaben „A" bis „F". Die Bildinformation, die als Binärbildinformation dient, hat die gleiche Größe wie ein Bereich, der einzubetten ist. Beispielsweise, wenn die Ziffer „0" einzubetten ist in die gesamte Bildinformation, wird die Binärbildinformation, die die Ziffer „0" darstellt, zuerst in einer derartigen Art und Weise verarbeitet, dass sie die gleiche Größe hat wie die Hauptbildinformation, und dann wird eine Syntheseverarbeitung durchgeführt. Wenn die Binärbildinformation, die eine Mehrzahl von Ziffern oder Symbolen darstellt, in einen Teilbereich des Hauptbilds der Binärbildinformation eingebettet wird, wird die Binärbildinformation in einer derartigen Art und Weise vergrößert, dass sie die gleiche Größe hat wie der einzubettende Bereich, und dann wird die Syntheseverarbeitung durchgeführt.
  • Eine Beschreibung wird unter Bezugnahme auf das in 28 gezeigte Flussdiagramm gegeben, wie die Bildsyntheseverarbeitung basierend auf der Binärbildinformation durchgeführt wird.
  • Zuallererst wird die Binärbildinformation unterteilt, um die gewünschten Dimensionen zu haben (1 x m) (Schritt S1). In dem Beispiel gemäß 27 ist 1 = 5 und m = 7. Die kleinen Bereiche der unterteilten Binärbildinformation werden klassifiziert durch Überprüfung, ob sie einem Buchstaben oder einem Symbolbereich entsprechen, oder ob sie einem Hintergrundbereich entsprechen, der ein anderer ist als ein Zeichen oder Symbolbereich (Schritt S2). Entweder die erste Musterbildinformation 102a oder die zweite Musterbildinformation 102b wird jedem der kleinen Berei che zugeordnet (Schritt S3). Beispielsweise wird die erste Musterbildinformation 102a dem Hintergrundbereich zugeordnet, der ein anderer ist als ein Zeichen oder Symbol, und die zweite Musterbildinformation 102b wird dem Buchstaben oder dem Symbolbereich zugeordnet (der Nichthintergrundbereich).
  • Nachdem entweder die erste Musterbildinformation 102a oder die zweite Musterbildinformation 102b zugeordnet worden ist, wird jeder kleine Bereich der Syntheseverarbeitung unterworfen, die in Verbindung mit dem ersten Ausführungsbeispiel beschrieben wurde (Schritt S4). Durch Ausführen der Syntheseverarbeitung für jeden kleinen Bereich wird Synthesebildinformation, die jedem kleinen Bereich entspricht, vorbereitet. Alle resultierenden Synthesebildinformationen, die den entsprechenden kleinen Bereichen entsprechen, werden lediglich kombiniert (Schritt S5).
  • Durch diese Kombination bildet die Synthesebildinformation, die den jeweiligen kleinen Bereichen entspricht, ein Bild mit der Originalgröße (also die Größe des Einbettungsbereichs der Hauptbildinformation). Die Synthesebildinformation der Originalgröße wird auf ein Aufzeichnungsmedium gedruckt unter Verwendung eines hochauflösenden Thermosublimationsdruckers (Schritt S6). In dieser Weise wird eine ID Karte, die eine gedruckte Synthesebildinformation trägt, vorbereitet.
  • Die Synthesebildinformation, die gemäß dem dritten Ausführungsbeispiel vorbereitet wird, kann geprüft werden auf Authentizität unter Verwendung des Maskenblatts 113a, das auf der ersten Musterbildinformation 102a basiert, in einer ähnlichen Art und Weise wie bei dem zweiten Ausführungsbeispiel. Um genauer zu sein, es wird ein Maskenblatt 113a vorher vorbereitet von der ersten Musterbildinformation 102a. Das Maskenblatt 113a wird auf das Synthesebild 104 gelegt, das eine gedruckte Form der Synthesebildinformation ist. Das gedruckte Synthesebild 104 und das Maskenblatt 113a werden relativ zueinander bewegt, in einer derartigen Art und Weise, dass die relative Bewegung entweder eine lineare Bewegung (vertikale oder horizontale Bewegung) oder eine Drehung ist. Nach dieser relativen Bewegung hat das Synthesebild 104 einen Kontrast zwischen den Bereichen, wo die erste Musterbildinformation 102a eingebettet ist und den Bereichen, wo die zweite Musterbildinformation 102b eingebettet ist. Der Kontrast wird erzeugt aufgrund der oben beschriebenen Prinzipien in Verbindung mit dem zweiten Ausführungsbeispiel. Es soll bemerkt werden, dass die Bereiche, wo die zweite Musterbildinformation 102b eingebettet ist, den Hintergrundbereichen der Buchstaben und Symbole der Nebenbildinformation entspricht, und dass die Bereiche, wo die erste Musterbildinformation 102a eingebettet ist, den Hin tergrundbereichen (also Buchstaben und Symbole selbst) entsprechen. Folglich sind die Buchstaben und der Hintergrund der Nebenbildinformation in dem Synthesebild angegeben mit einem Kontrast, der erzeugt wird.
  • Wie man aus dem Vorangegangenen sehen kann, kann eine Authentizitätsbestimmung erfolgen durch Prüfen, ob die eingebettete Nebenbildinformation visuell wahrgenommen werden kann. Gemäß dem dritten Ausführungsbeispiel können darüber hinaus Buchstaben und Symbole eingebettet werden in einen Zustand, der durch das menschliche Auge nicht wahrgenommen werden kann, und die Zeichen, Symbole und andere eingebettete Information kann in einer einfachen Art und Weise und in einem einfachen Verfahren erfasst werden.
  • Das Informationsverarbeitungsverfahren, wie oben beschrieben, ermöglicht die Ausgabe einer ID Karte, die ein Gesichtsbild trägt, das zur Identifikation verwendet werden kann und das einen hohen Grad an Sicherheit bereitstellt. Da die Information, die für die Authentizitätsbestimmung verwendet wird, in einem Zustand eingebettet ist für die Authentizitätsbestimmung, der mit dem bloßen Auge eines Menschen nicht wahrgenommen werden kann, kann die Hauptbildinformation die hohe Qualität aufrechterhalten. Darüber hinaus kann eine Authentizitätsbestimmung leicht durchgeführt werden, ohne Notwendigkeit der Verwendung einer komplizierten Maschine.

Claims (7)

  1. Bildverarbeitungsverfahren zum Einbetten eines Musterbilds in ein Hauptbild, so dass es für das bloße Auge unsichtbar ist, gekennzeichnet durch einen ersten Schritt (106, 107) zum Vorbereiten einer Hauptbildinformation (101), die für das bloße Auge sichtbar ist; einen zweiten Schritt (108, 109) zum Vorbereiten einer Musterbildinformation (102), die ein vorbestimmtes, sich zyklisch wiederholendes Muster von Binärverteilungsregionen aufweist; einen dritten Schritt (110, 301) zum Durchführen einer Farbdifferenzmodulationsverarbeitung, die ein Zuordnen von schwarzen und weißen Pixeln gemäß den Werten der Pixel der Musterbildinformation (102) und ein Multiplizieren jedes Werts mit einem vorbestimmten Farbdifferenzmodulationswert ΔV enthält, einen vierten Schritt (110, 302) zum Überlagern der modulierten Musterbildinformation (102), die durch die Farbdifferenzmodulationsverarbeitung des dritten Schritts (110, 301) erzeugt wird, auf die Hauptbildinformation (101), die in dem ersten Schritt (106, 107) vorbereitet worden ist, um ein synthesiertes Bild (103) zu erzeugen; so dass die Musterbildinformation mit dem bloßen Auge nicht sichtbar ist; einen fünften Schritt (111) zum Aufzeichnen des synthesierten Bilds (103), das in dem vierten Schritt (110, 302) vorbereitet worden ist, auf ein Aufzeichnungsmedium (105); wobei, wenn ein Maskenblatt mit dem gleichen Muster eines Binärverteilungsverhältnisses wie die Musterbildinformation auf das synthesierte Bild überlagert und relativ zu diesem bewegt wird, ein zyklisch sich wiederholendes Muster für das bloße Auge sichtbar wird.
  2. Informationsverarbeitungsverfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Musterbildinformation (102), die in dem zweiten Schritt (108, 109) vorbereitet worden ist, ein zyklisches Gittermuster mit einer vorbestimmten Periode hat.
  3. Informationsverarbeitungsverfahren nach Anspruch 1, ferner mit einem Teilungsschritt (110, 302) zum Teilen der Hauptbildinformation (101) nachdem sie in dem ersten Schritt (106, 107) vorbereitet worden ist, in eine Mehrzahl von Bereichen (A, B); wobei in dem zweiten Schritt (108, 109) ein Vorbereiten mehrerer Musterbilder (102a, 102b) enthalten ist, und wobei der vierte Schritt (110) ein Vorbereiten eines synthesierten Bilds enthält, indem die Musterbilder (102a, 102b), die in dem zweiten Schritt (108, 109) vorbereitet werden, in Überein stimmung gebracht werden mit entsprechenden Bereichen (A, B) des Hauptbilds (101), das in dem Teilungsschritt (110, 302) geteilt worden ist, und durch Kombinieren jeder Musterbildinformation (102a, 102b) mit jedem Bereich (A, B) der Hauptbildinformation (101) derart, dass die Musterbildinformation für das bloße Auge unsichtbar ist.
  4. Informationsverarbeitungsverfahren nach Anspruch 3, bei dem die mehreren Musterbilder (102a, 102b), die in dem zweiten Schritt (108, 109) vorbereitet werden, vorbereitet werden durch Drehen der Musterbildinformation, die als ein Referenz verwendet wird.
  5. Informationsverarbeitungsverfahren nach Anspruch 3, bei dem die mehreren Musterbilder (102a, 102b), die in dem zweiten Schritt (108, 109) vorbereitet werden, eine erste Musterbildinformation (102a) und eine zweite Musterbildinformation (102b), die durch Drehen der ersten Musterinformation (102a) um 90° erhalten wird, enthalten.
  6. Informationsverarbeitungsverfahren nach Anspruch 1, ferner mit einem Teilungsschritt (S2) des Teilens der Binärbildinformation, nachdem sie in dem ersten Schritt vorbereitet worden ist, in einen ersten Bereich, der einem Hintergrundbereich entspricht, und einen zweiten Bereich, der einem Nicht-Hintergrundbereich entspricht, wobei der zweite Schritt (108, 109) ein Vorbereiten einer ersten Musterbildinformation (102a) und einer zweiten Musterbildinformation (102b), die von der ersten Musterbildinformation (102a) verschieden ist, enthält; und wobei der vierte Schritt (S3, S4, S5) ein Vorbereiten einer synthesierten Bildinformation (103) enthält, indem die erste Musterbildinformation (102a) mit dem Hauptbildinformationsbereich, der dem ersten Bereich der Binärbildinformation (101) entspricht, kombiniert wird, so dass der synthesierte Zustand für das bloße Auge unsichtbar ist, und durch Kombinieren der zweiten Musterbildinformation (102b) mit dem Hauptbildinformationsbereich, der dem zweiten Bereich der Binärbildinformation (101) entspricht, so dass der synthesierte Zustand für das bloße Auge unsichtbar ist.
  7. Informationsverarbeitungsverfahren nach Anspruch 6, bei dem die zweite Musterbildinformation (102b), die in dem zweiten Schritt (108, 109) vorbereitet wird, vorbereitet wird durch Drehen der ersten Musterbildinformation (102a).
DE60126698T 2000-03-21 2001-03-13 Informationverarbeitungsverfahren Expired - Lifetime DE60126698T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000078885 2000-03-21
JP2000078885A JP4495824B2 (ja) 2000-03-21 2000-03-21 情報処理方法

Publications (2)

Publication Number Publication Date
DE60126698D1 DE60126698D1 (de) 2007-04-05
DE60126698T2 true DE60126698T2 (de) 2007-10-25

Family

ID=18596228

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60126698T Expired - Lifetime DE60126698T2 (de) 2000-03-21 2001-03-13 Informationverarbeitungsverfahren

Country Status (6)

Country Link
US (1) US6885755B2 (de)
EP (1) EP1136947B1 (de)
JP (1) JP4495824B2 (de)
KR (1) KR100378911B1 (de)
CN (1) CN1172268C (de)
DE (1) DE60126698T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3185221A1 (de) 2015-12-23 2017-06-28 Friedrich Kisters Authentifikationsvorrichtung und verfahren zur optischen oder akustischen zeichenerkennung

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6869023B2 (en) 2002-02-12 2005-03-22 Digimarc Corporation Linking documents through digital watermarking
US6763122B1 (en) 1999-11-05 2004-07-13 Tony Rodriguez Watermarking an image in color plane separations and detecting such watermarks
US7039214B2 (en) 1999-11-05 2006-05-02 Digimarc Corporation Embedding watermark components during separate printing stages
US6718046B2 (en) 1995-05-08 2004-04-06 Digimarc Corporation Low visibility watermark using time decay fluorescence
US6721440B2 (en) 1995-05-08 2004-04-13 Digimarc Corporation Low visibility watermarks using an out-of-phase color
US6763123B2 (en) 1995-05-08 2004-07-13 Digimarc Corporation Detection of out-of-phase low visibility watermarks
US6590996B1 (en) 2000-02-14 2003-07-08 Digimarc Corporation Color adaptive watermarking
JP4495824B2 (ja) 2000-03-21 2010-07-07 株式会社東芝 情報処理方法
US6763124B2 (en) 2000-04-19 2004-07-13 Digimarc Corporation Embedding digital watermarks in spot colors
US6912295B2 (en) 2000-04-19 2005-06-28 Digimarc Corporation Enhancing embedding of out-of-phase signals
US7738673B2 (en) 2000-04-19 2010-06-15 Digimarc Corporation Low visible digital watermarks
US8027509B2 (en) 2000-04-19 2011-09-27 Digimarc Corporation Digital watermarking in data representing color channels
US6993149B2 (en) * 2001-09-25 2006-01-31 Digimarc Corporation Embedding digital watermarks in spot colors
US7027614B2 (en) 2000-04-19 2006-04-11 Digimarc Corporation Hiding information to reduce or offset perceptible artifacts
US6891959B2 (en) 2000-04-19 2005-05-10 Digimarc Corporation Hiding information out-of-phase in color channels
US6804377B2 (en) 2000-04-19 2004-10-12 Digimarc Corporation Detecting information hidden out-of-phase in color channels
US7162035B1 (en) 2000-05-24 2007-01-09 Tracer Detection Technology Corp. Authentication method and system
WO2002039714A2 (en) * 2000-11-08 2002-05-16 Digimarc Corporation Content authentication and recovery using digital watermarks
US7072487B2 (en) * 2001-01-26 2006-07-04 Digimarc Corporation Watermark detection using adaptive color projections
US8094869B2 (en) 2001-07-02 2012-01-10 Digimarc Corporation Fragile and emerging digital watermarks
US7537170B2 (en) 2001-08-31 2009-05-26 Digimarc Corporation Machine-readable security features for printed objects
US7213757B2 (en) 2001-08-31 2007-05-08 Digimarc Corporation Emerging security features for identification documents
JP2003174556A (ja) * 2001-09-26 2003-06-20 Canon Inc 画像処理装置及び画像処理方法
EP1456810B1 (de) 2001-12-18 2011-05-11 L-1 Secure Credentialing, Inc. Mehrfachbildsicherheitsmerkmale zur identifikation von dokumenten und verfahren zu ihrer herstellung
US7728048B2 (en) 2002-12-20 2010-06-01 L-1 Secure Credentialing, Inc. Increasing thermal conductivity of host polymer used with laser engraving methods and compositions
JP3879552B2 (ja) * 2002-03-20 2007-02-14 富士ゼロックス株式会社 画像生成装置、画像読取装置、不正複製防止システム、プログラム、および出力媒体の製造方法
US7824029B2 (en) 2002-05-10 2010-11-02 L-1 Secure Credentialing, Inc. Identification card printer-assembler for over the counter card issuing
CA2435659A1 (en) 2002-07-23 2004-01-23 Kabushiki Kaisha Toshiba Image processing method
US7225991B2 (en) 2003-04-16 2007-06-05 Digimarc Corporation Three dimensional data storage
JP4227048B2 (ja) 2003-04-25 2009-02-18 株式会社東芝 画像処理システム
US20050063027A1 (en) * 2003-07-17 2005-03-24 Durst Robert T. Uniquely linking security elements in identification documents
US8049933B2 (en) 2003-09-17 2011-11-01 Canon Kabushiki Kaisha Copy-forgery-inhibited pattern image generation method and image processing apparatus
US20050058476A1 (en) * 2003-09-17 2005-03-17 Canon Kabushiki Kaisha Copy-forgery-inhibited pattern density parameter determination method, copy-forgery-inhibited pattern image generation method, and image processing apparatus
US7386177B2 (en) 2003-09-30 2008-06-10 Graphic Security Systems Corp. Method and system for encoding images using encoding parameters from multiple sources
JP4167590B2 (ja) 2003-12-22 2008-10-15 株式会社東芝 画像処理方法
US7697785B2 (en) * 2004-03-31 2010-04-13 Fuji Xerox Co., Ltd. Generating a highly condensed visual summary
US7630513B2 (en) 2004-04-26 2009-12-08 Graphic Security Systems Corporation System and method for network-based object authentication
US7512249B2 (en) 2004-04-26 2009-03-31 Graphic Security Systems Corporation System and method for decoding digital encoded images
JP4327676B2 (ja) 2004-07-28 2009-09-09 株式会社東芝 画像印刷方法および画像印刷装置
US7848567B2 (en) * 2004-09-23 2010-12-07 Fuji Xerox Co., Ltd. Determining regions of interest in synthetic images
JP4660212B2 (ja) 2005-01-24 2011-03-30 株式会社東芝 画像処理装置および画像処理方法
JP4550749B2 (ja) 2006-03-07 2010-09-22 株式会社東芝 画像処理方法および画像処理装置
US7860268B2 (en) 2006-12-13 2010-12-28 Graphic Security Systems Corporation Object authentication using encoded images digitally stored on the object
EP2009897B1 (de) 2007-06-27 2014-12-24 Kabushiki Kaisha Toshiba Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren, Bilderzeugungsvorrichtung, Bilderzeugungsverfahren und aufgezeichnetes Material
JP4922205B2 (ja) * 2007-08-17 2012-04-25 株式会社東芝 画像処理方法および画像処理装置
JP2009088614A (ja) * 2007-09-27 2009-04-23 Toshiba Corp 画像処理方法および画像処理装置
US7995196B1 (en) 2008-04-23 2011-08-09 Tracer Detection Technology Corp. Authentication method and system
JP2009290709A (ja) * 2008-05-30 2009-12-10 Canon Inc 印刷システム、印刷装置、画像処理装置及び印刷システムの制御方法
US20090323125A1 (en) * 2008-06-27 2009-12-31 Kabushiki Kaisha Toshiba Image generating apparatus
JP4686578B2 (ja) * 2008-07-03 2011-05-25 株式会社東芝 画像処理方法
US9117268B2 (en) 2008-12-17 2015-08-25 Digimarc Corporation Out of phase digital watermarking in two chrominance directions
US8199969B2 (en) 2008-12-17 2012-06-12 Digimarc Corporation Out of phase digital watermarking in two chrominance directions
JP4913184B2 (ja) * 2009-08-06 2012-04-11 株式会社東芝 本人確認書類真贋判定装置、本人確認書類真贋判定方法およびプログラム
US8682025B2 (en) 2010-10-11 2014-03-25 Graphic Security Systems Corporation Method for constructing a composite image incorporating a hidden authentication image
JP5701025B2 (ja) * 2010-11-29 2015-04-15 キヤノン株式会社 画像処理装置、画像処理システム、画像処理装置の制御方法、及びプログラム
KR101879954B1 (ko) * 2016-11-24 2018-07-19 한국과학기술원 시간 도메인 기반의 시각 암호화를 이용한 보안 이미지 처리 방법 및 그 장치
CN106846271B (zh) * 2017-01-18 2020-04-17 天津中科智能识别产业技术研究院有限公司 一种去除身份证照片中网纹的方法
JP6979694B2 (ja) * 2018-03-22 2021-12-15 株式会社マーストーケンソリューション 隠蔽画像又は隠蔽情報を認証する認証システム、認証方法及び認証用プログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0659739A (ja) 1992-08-07 1994-03-04 Sumitomo Heavy Ind Ltd 二重テーブル旋回装置
US5407893A (en) * 1993-08-19 1995-04-18 Konica Corporation Material for making identification cards
US6345104B1 (en) 1994-03-17 2002-02-05 Digimarc Corporation Digital watermarks and methods for security documents
JP3224480B2 (ja) * 1994-09-30 2001-10-29 キヤノン株式会社 カラー画像処理装置
US5995638A (en) * 1995-08-28 1999-11-30 Ecole Polytechnique Federale De Lausanne Methods and apparatus for authentication of documents by using the intensity profile of moire patterns
US6095566A (en) * 1996-03-14 2000-08-01 Kabushiki Kaisha Toshiba Image recorded product, image recording system, image reproducing system, and recording medium for use to superimpose-record/reproduce additional information
JP3547892B2 (ja) 1996-03-14 2004-07-28 株式会社東芝 画像記録装置及び画像記録方法
US5974150A (en) * 1997-09-30 1999-10-26 Tracer Detection Technology Corp. System and method for authentication of goods
JP4015753B2 (ja) 1998-06-11 2007-11-28 株式会社東芝 画像情報処理方法
JPH11168616A (ja) 1997-12-03 1999-06-22 Toshiba Corp 画像情報処理方法および画像情報処理装置
DE69835133T8 (de) * 1997-12-03 2007-05-16 Kabushiki Kaisha Toshiba, Kawasaki Verfahren zur Bildinformationsverarbeitung und Verfahren zur Verhinderung von Fälschungen von Zertifikaten und dergleichen
US5946414A (en) * 1998-08-28 1999-08-31 Xerox Corporation Encoding data in color images using patterned color modulated image regions
US6693647B1 (en) * 1998-10-19 2004-02-17 Lightsurf Technologies, Inc. Method and apparatus for displaying notification that a color corrected image is being viewed
JP2000182086A (ja) 1998-12-18 2000-06-30 Toshiba Corp 券発行方法および券照合方法
US6556688B1 (en) * 1999-03-15 2003-04-29 Seiko Epson Corporation Watermarking with random zero-mean patches for printer tracking
JP4495824B2 (ja) 2000-03-21 2010-07-07 株式会社東芝 情報処理方法
JP4038956B2 (ja) 2000-03-23 2008-01-30 凸版印刷株式会社 画像生成システム及び画像生成方法
JP4554771B2 (ja) 2000-06-20 2010-09-29 パナソニック株式会社 正当性認証システム、個人証発行システム及び個人証
JP4828739B2 (ja) 2001-08-17 2011-11-30 株式会社東芝 熱転写記録方法、プリンタシステムおよび熱転写記録装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3185221A1 (de) 2015-12-23 2017-06-28 Friedrich Kisters Authentifikationsvorrichtung und verfahren zur optischen oder akustischen zeichenerkennung
WO2017108428A1 (de) 2015-12-23 2017-06-29 Friedrich Kisters Authentifikationsvorrichtung und verfahren zur optischen oder akustischen zeichenerkennung

Also Published As

Publication number Publication date
DE60126698D1 (de) 2007-04-05
JP2001268346A (ja) 2001-09-28
KR100378911B1 (ko) 2003-04-07
EP1136947A2 (de) 2001-09-26
KR20010089182A (ko) 2001-09-29
EP1136947B1 (de) 2007-02-21
CN1324058A (zh) 2001-11-28
US6885755B2 (en) 2005-04-26
JP4495824B2 (ja) 2010-07-07
US20010040980A1 (en) 2001-11-15
CN1172268C (zh) 2004-10-20
EP1136947A3 (de) 2003-11-26

Similar Documents

Publication Publication Date Title
DE60126698T2 (de) Informationverarbeitungsverfahren
DE19900856C2 (de) Anti-Fälschungs-Verfahren und Vorrichtung, welche eine digitale Abschirmung bzw. Überprüfung verwendet
DE69835133T2 (de) Verfahren zur Bildinformationsverarbeitung und Verfahren zur Verhinderung von Fälschungen von Zertifikaten und dergleichen
DE60018222T2 (de) Optisches Wasserzeichen
DE69622434T2 (de) Software für den digitalen fälschungs-schutz von dokumenten
DE69119882T2 (de) Verfahren und Einrichtung zum Einbringen von Machinenlesbaren, digitalen Daten in Halbtonbilder
DE602005004263T2 (de) Banknoten mit einem aufgedruckten sicherheitsbild, das mit eindimensionaler signalverarbeitung erkannt werden kann
DE69033362T2 (de) Verfahren zur herstellung eines fälschungssicheren dokuments
DE69417661T2 (de) Gerät zur steganografischen Einfügung von Information in Farbbilder
DE60311365T2 (de) Bildverarbeitungsverfahren
CA2737430C (en) Anti-counterfeit printed matter, method of manufacturing the same, and recording medium storing halftone dot data creation software
DE69917947T2 (de) Neue verfahren und vorrichtung zum authentifizieren von dokumenten durch anwendung des intensitätsprofils von moiremuster
DE69938486T2 (de) Bildverarbeitungsverfahren, -system und -gerät, und Speichermedium
DE3402251A1 (de) Verfahren zur verstaerkung der schaerfe beim abtasten und aufzeichnen eines bilds
DE60216870T2 (de) Druckbilderzeugungsverfahren und Verfahren zur Fälschungsvermeidung
DE10237059A1 (de) Datenträger
EP2100747A1 (de) Verfahren zum Aufbringen eines Bildes mit eingebetteter Zusatzinformation auf einen Datenträger
DE102016222811A1 (de) System und verfahren zum erzeugen eines wipp-glanzeffekts und eines aufzeichnungsmediums mit wipp-glanzeffekt
JP7536254B2 (ja) 印刷物の真正の確認装置、確認方法及び確認用ソフトウェア
EP3686027A1 (de) Verfahren zum drucken von authentifizierungskennzeichen mit einem amplitudenmodulierten rasterdruck
MXPA98004236A (en) Method and device of digital programming against alternative

Legal Events

Date Code Title Description
8364 No opposition during term of opposition