maschinelles Sehen. Was ist es und wie wird es verwendet? Bildverarbeitung der optischen Quelle

Maschinelles Sehen ist die Anwendung von Computer Vision in Industrie und Fertigung. Das Interessengebiet der maschinellen Bildverarbeitung als Ingenieurrichtung sind digitale Eingabe- / Ausgabegeräte und Computernetzwerke zur Steuerung von Produktionsanlagen, wie z. B. Roboterarme oder Geräte zum Extrahieren fehlerhafter Produkte.

Maschinelles Sehen ist das Studium von Methoden und Techniken, mit denen künstliche Sehsysteme konstruiert und in praktischen Anwendungen sinnvoll eingesetzt werden können. Als solches umfasst es sowohl die Wissenschaft als auch die Technik des Sehens.

Seine Studie umfasst nicht nur die Software, sondern auch die Hardwareumgebung und Bilderfassungstechniken, die für die Anwendung erforderlich sind. Als solches unterscheidet es sich von der Computervision, die in den meisten Büchern zu diesem Thema als Bereich der Computervision erscheint möglich Design der Software, ohne allzu viel Aufmerksamkeit darauf zu richten, was in ein integriertes Bildverarbeitungssystem einfließt (obwohl moderne Bücher über Computerbildverarbeitung normalerweise ziemlich viel über die "bösen Realitäten" des Sehens sagen, wie etwa Rauschunterdrückung und Okklusionsanalyse).

Maschinelles Sehen heute.

Gegenwärtig gibt es eine klare Grenze zwischen dem sogenannten monokularen und binokularen Computersehen. Der erste Bereich umfasst Forschung und Entwicklung auf dem Gebiet des maschinellen Sehens in Bezug auf Informationen, die von einer Kamera oder von jeder Kamera separat stammen. Der zweite Bereich umfasst Forschung und Entwicklung, die sich mit Informationen befassen, die gleichzeitig von zwei oder mehr Kameras kommen. Mehrere Kameras in solchen Systemen werden verwendet, um die Beobachtungstiefe zu messen. Diese Systeme werden als Stereosysteme bezeichnet.

Bis heute hat sich die Theorie des Computersehens als eigenständiger Zweig der Kybernetik vollständig entwickelt, basierend auf der wissenschaftlichen und praktischen Wissensbasis. Jedes Jahr werden Hunderte von Büchern und Monographien zu diesem Thema veröffentlicht, Dutzende von Konferenzen und Symposien abgehalten, verschiedene Soft- und Hardware und Software veröffentlicht. Es gibt eine Reihe von wissenschaftlichen und öffentlichen Organisationen, die die Forschung auf dem Gebiet moderner Technologien, einschließlich Computer-Vision-Technologien, unterstützen und hervorheben.

Hauptaufgaben der Bildverarbeitung

Im Allgemeinen umfassen die Aufgaben von Bildverarbeitungssystemen das Erhalten eines digitalen Bildes, die Bildverarbeitung, um signifikante Informationen im Bild hervorzuheben, und die mathematische Analyse der erhaltenen Daten, um die Aufgaben zu lösen.

Machine Vision ermöglicht jedoch die Lösung vieler Probleme, die sich bedingt in vier Gruppen einteilen lassen (Abb. 2) [Lysenko, 2007]:

Abb.2.

· Positionserkennung

Der Zweck des maschinellen Sehens in dieser Anwendung besteht darin, die räumliche Position (die Position des Objekts relativ zum externen Koordinatensystem) oder die statische Position des Objekts (welche Position das Objekt in Bezug auf das Koordinatensystem mit dem Ursprung darin hat) zu bestimmen das Objekt selbst) und Informationen über die Position und Orientierung des Objekts an das Steuerungssystem oder die Steuerung übertragen. Ein Beispiel für eine solche Anwendung ist ein Materialhandhabungsroboter, der die Aufgabe hat, Objekte verschiedener Formen aus einem Silo zu bewegen. Die gedankliche Aufgabe der Bildverarbeitung besteht beispielsweise darin, das optimale Basiskoordinatensystem und dessen Mittelpunkt zu bestimmen, um den Schwerpunkt des Bauteils zu lokalisieren. Die erhaltenen Informationen ermöglichen es dem Roboter, das Teil richtig zu greifen und an die richtige Stelle zu bewegen.

Messung

Bei Anwendungen dieser Art besteht die Hauptaufgabe einer Videokamera darin, verschiedene physikalische Parameter eines Objekts zu messen. Ein Beispiel für physikalische Parameter ist lineare Größe, Durchmesser, Krümmung, Fläche, Höhe und Menge. Ein Beispiel für die Umsetzung dieser Aufgabe ist die Messung verschiedener Durchmesser des Halses einer Glasflasche.

Inspektion

Bei Inspektionsanwendungen besteht der Zweck der maschinellen Bildverarbeitung darin, bestimmte Eigenschaften zu bestätigen, z. B. das Vorhandensein oder Fehlen eines Etiketts auf einer Flasche, Schrauben für einen Montagevorgang, Pralinen in einer Schachtel oder das Vorhandensein verschiedener Fehler.

Identifikation

Bei Identifikationsaufgaben besteht der Hauptzweck einer Videokamera darin, verschiedene Codes (Barcodes, 2D-Codes usw.) zu lesen, um sie mittels einer Kamera oder einer Systemsteuerung zu erkennen, sowie verschiedene alphanumerische Bezeichnungen zu bestimmen. Darüber hinaus gehören zu den Aufgaben dieser Gruppe Systeme, die Sicherheitsaufgaben erfüllen, wie z. B. Personen- und Geräteidentifikation, Bewegungsmelder.

Ausgehend von den Aufgaben, die maschinelles Sehen löst, lassen sich viele Anwendungsgebiete des maschinellen Sehens unterscheiden. Allerdings ist zu beachten, dass die heutige Nachfragestruktur durch die noch begrenzten Möglichkeiten moderner Bildverarbeitungssysteme bestimmt wird.

Nachfolgend die Struktur der Marktnachfrage nach Projektthemen (Abb. 3) [Bobrovsky, 2004]:


Abb. 3.

· 50 % aller Bildverarbeitungssysteme werden in Qualitätskontrollaufgaben eingesetzt, d. h. entscheiden Inspektion Bildverarbeitungsaufgaben. Dies ist in erster Linie eine visuelle Kontrolle über den Montageprozess, die Farbe und Qualität der Produktoberfläche, das Aussehen und die Sauberkeit der Verpackung, die Korrektheit und Lesbarkeit von Etiketten, den Flüssigkeitsstand in Behältern aller Art usw. ca. 10 % dieser Aufgaben übernehmen 3D-Vision-Systeme. Ein separates Einsatzgebiet von Bildverarbeitungssystemen in der Produktion ist die Durchführung aller Arten von visuellen Messungen der Parameter technologischer Prozesse und insbesondere die Bestimmung der Größe von Objekten, d.h. Probleme lösen Messungen.

· 20 % der Nachfrage entfallen auf Bildverarbeitungssysteme für industrielle Automatisierungsprojekte und die Einführung von Industrierobotern. Solche Bildverarbeitungssysteme vereinfachen verschiedene Arten von hochpräzisen Tätigkeiten (Montage und Demontage, Verpackung, Lackierung, Schweißen, Entsorgung), erleichtern den Warentransport und werden in Systemen zur Abrechnung, Kennzeichnung, Registrierung und Sortierung von Produkten eingesetzt. Ebenfalls Inspektion Aufgaben und Aufgaben Lage für den korrekten Betrieb des Roboters.

· 17 % aller Bildverarbeitungsverkäufe sind bekannte und leistungsstarke OCR/OCV-Druckzeichen- und Barcode-Erkennungssysteme. Die Lösung des Problems Identifikation.

· Der Markt für Bildverarbeitungssysteme für Nichtproduktionsroboter (Unterhaltung, Haushalt, Forschung) beträgt 13 %.

Hauptanwendungen der Bildverarbeitung

In Bobrovskys Artikel "Wenn die Maschinen anfangen, klar zu sehen" [Bobrovsky, 2004] Die folgende Statistik der Bereiche, in denen Bildverarbeitungssysteme gefragt sind, wird präsentiert:

· Ein kleiner Prozentsatz des Marktes entfällt auf Virtual-Reality-Systeme, die eine qualitativ neue Mensch-Computer-Schnittstelle basierend auf Gesichts- und Gestenerkennung bieten, Systeme, die Sicherheitsaufgaben übernehmen, semantische Analyse von Multimediadaten usw.

· Bildverarbeitungssysteme sind auch in der Robotik gefragt. Experten glauben, dass Bildverarbeitungstechnologie der einfachste Weg ist, Maschinen beizubringen, in der natürlichen Welt autonom zu arbeiten.

· Von Seiten landwirtschaftlicher Organisationen, wo es notwendig ist, die Aktivitäten der visuellen Kontrolle und Sortierung von Produkten zu automatisieren, wird eine erhebliche Nachfrage beobachtet, aber bisher zeigen maschinelle Bildverarbeitungssysteme unbefriedigende Ergebnisse in diesem Bereich.

Es besteht ein wachsendes Interesse an Bildverarbeitungssystemen von Nanotechnologieunternehmen, Biotechnologieunternehmen und im Bereich der Medizin (automatische Analyse medizinischer Bilder - Röntgen, Tomographie, Ultraschall).

· Machine Vision ist auch im Bereich Sicherheitssysteme gefragt (Personenidentifikation, Bewegungsmelder, Erkennung und Verfolgung von sich bewegenden Objekten, Nummernschilderkennung etc.);

· Bildverarbeitungssysteme sind im Bereich der Qualitätskontrolle und Lebensmittelinspektion (derzeit wird die Qualität von Keksen auf einer Süßwarenlinie mit einer Geschwindigkeit von 60 Kuchen pro Sekunde bewertet) sowie im Bereich der visuellen Kontrolle und des Managements gefragt (Buchhaltung, Barcodelesung).

Maschinelles Sehen wird in Erkennungssystemen für Handschrift und gedruckten Text verwendet.

UDC 004.93"1

maschinelles Sehen

Tatjana Wadimowna Petrowa, Gruppe 4241/3

Maschinelles Sehen ist die Anwendung von Computer Vision in Industrie und Fertigung. Das Interessengebiet der Bildverarbeitung sind digitale Ein-/Ausgabegeräte und Computernetzwerke zur Steuerung von Produktionsanlagen. Das maschinelle Sehen hat einige Vorteile gegenüber dem menschlichen Sehen. Dementsprechend ist es wichtig, dieses Wissenschaftsgebiet weiterzuentwickeln. Dieser Rückblick beschreibt die Geschichte der Bildverarbeitung, die Komponenten eines Bildverarbeitungssystems, die Anwendung der Bildverarbeitung und die Zukunft dieses Wissenschaftsgebiets.


Einführung

Industrielles maschinelles Sehen von Computern

Eine Person erhält den Hauptteil der Informationen über die Außenwelt über den visuellen Kanal und verarbeitet dann die erhaltenen Informationen sehr effektiv unter Verwendung der Vorrichtung zum Analysieren und Interpretieren visueller Informationen. Daher stellt sich die Frage nach der Möglichkeit der maschinellen Umsetzung dieses Verfahrens.

Aufgrund der zunehmenden Komplexität der zu lösenden wissenschaftlichen und technischen Problemstellungen wird die automatische Verarbeitung und Analyse visueller Informationen immer relevanter. Diese Technologien werden in stark nachgefragten Bereichen von Wissenschaft und Technologie eingesetzt, wie z. B. Prozessautomatisierung, Produktivitätssteigerung, Verbesserung der Produktqualität, Steuerung von Produktionsanlagen, intelligente Robotersysteme, Bewegungssteuerungssysteme, biomedizinische Forschung und viele andere. Darüber hinaus können wir sagen, dass der Erfolg moderner Unternehmen hauptsächlich auf der Qualität der angebotenen Produkte basiert. Und um dies sicherzustellen, wenn wir über die Produktion materieller Dinge sprechen, ist eine visuelle Kontrolle erforderlich.

Darüber hinaus werden wir den Begriff "maschinelles Sehen" als ein Konzept verwenden, das die Bandbreite der technischen Technologien, Methoden und Algorithmen im Zusammenhang mit der Aufgabe der Interpretation visueller Informationen sowie die praktische Nutzung der Ergebnisse dieser Interpretation am umfassendsten umfasst.


1. Geschichte der Entwicklung des maschinellen Sehens

Computer Vision hat sich Ende der 60er Jahre als eigenständige Disziplin herausgebildet. Diese Richtung entstand im Rahmen der Künstlichen Intelligenz damals, als noch heftig über die Möglichkeit der Erschaffung einer Denkmaschine diskutiert wurde. Es entstand aus der Arbeit der Mustererkennung. [Zueva, 2008]

Eine kurze Geschichte der Entwicklung der Bildverarbeitung ist in Abbildung 1 dargestellt.

Reis. 1. Geschichte des maschinellen Sehens

In der Entwicklungsgeschichte der Bildverarbeitung lassen sich folgende Etappen unterscheiden:

· 1955 - Professor am Massachusetts Institute of Technology (MIT) Oliver Selfridge veröffentlicht einen Artikel "Augen und Ohren für den Computer". Darin stellte der Autor die theoretische Idee vor, einen Computer mit Werkzeugen zur Ton- und Bilderkennung auszustatten.

· 1958 – der Psychologe Frank Rosenblatt von der Cornell University schuf eine Computerimplementierung des Perzeptrons (von Wahrnehmung – Wahrnehmung) – ein Gerät, das die Mustererkennungsschaltung des menschlichen Gehirns simuliert. Das Perceptron wurde erstmals 1958 modelliert, und sein Training erforderte etwa eine halbe Stunde Computerzeit auf einem IBM-704-Computer. Die Hardwareversion - Mark I Perceptron - wurde 1960 gebaut und war für die visuelle Mustererkennung gedacht [Computersehen, 2010] .

Die Betrachtung von Bildverarbeitungsproblemen war jedoch eher spekulativ, da es noch keine Technologie oder Software zur Lösung solch komplexer Probleme gab.

· 1960er Jahre – mit dem Erscheinen der ersten Bildverarbeitungs-Softwaresysteme (hauptsächlich zum Entfernen von Rauschen aus Fotografien, die von Flugzeugen und Satelliten aufgenommen wurden), begann sich die angewandte Forschung auf dem Gebiet der Schriftzeichenerkennung zu entwickeln. Allerdings gab es noch Einschränkungen bei der Entwicklung dieses Wissenschaftsgebiets, wie z. B. das Fehlen billiger optischer Dateneingabesysteme, begrenzte und ziemlich enge Spezialisierung von Computersystemen. Die rasante Entwicklung von Computer-Vision-Systemen in den 60er Jahren lässt sich durch die Ausweitung der Verwendung von Computern und den offensichtlichen Bedarf an schnellerer und effizienterer Kommunikation zwischen einer Person und einem Computer erklären. Zu Beginn der 1960er-Jahre umfassten Computer-Vision-Probleme hauptsächlich den Bereich der Weltraumforschung, der die Verarbeitung einer großen Menge digitaler Informationen erforderte.

1970er - Lawrence Roberts, Doktorand am MIT, stellte das Konzept der maschinellen Konstruktion dreidimensionaler Bilder von Objekten auf der Grundlage der Analyse ihrer zweidimensionalen Bilder vor. In dieser Phase begann eine tiefere Analyse der Daten. Verschiedene Ansätze zur Erkennung von Objekten in einem Bild begannen sich zu entwickeln, zum Beispiel Struktur, Merkmal und Textur.

· 1979 - Professor Hans-Helmut Nagel von der Universität Hamburg legte den Grundstein für die Theorie der dynamischen Szenenanalyse, die es ermöglicht, sich bewegende Objekte in einem Videostream zu erkennen.

In den späten 1980er Jahren wurden Roboter entwickelt, die die Welt um sie herum mehr oder weniger zufriedenstellend einschätzen und in der natürlichen Umgebung selbstständig Aktionen ausführen konnten

· Die 80er und 90er Jahre waren geprägt vom Aufkommen einer neuen Generation von Sensoren für zweidimensionale digitale Informationsfelder unterschiedlicher physikalischer Natur. Die Entwicklung neuer Messsysteme und Verfahren zur Aufnahme zweidimensionaler digitaler Informationsfelder in Echtzeit hat es ermöglicht, zeitstabile Bilder dieser Sensoren zur Analyse zu gewinnen. Die Verbesserung der Technologien zur Herstellung dieser Sensoren hat es ermöglicht, ihre Kosten erheblich zu senken und somit den Anwendungsbereich erheblich zu erweitern.

· Seit Anfang der 90er Jahre wird in algorithmischer Hinsicht die Handlungsfolge der Bildverarbeitung nach dem sogenannten modularen Paradigma betrachtet. Dieses von D. Marr auf der Grundlage einer langen Untersuchung der Mechanismen der menschlichen visuellen Wahrnehmung vorgeschlagene Paradigma besagt, dass die Bildverarbeitung auf mehreren aufeinanderfolgenden Ebenen der aufsteigenden Informationslinie basieren sollte: von der „ikonischen“ Darstellung von Objekten (Raster Bild, unstrukturierte Informationen) bis hin zu ihrer symbolischen Darstellung ( Vektor- und Attributdaten in strukturierter Form, relationale Strukturen etc.). [Vizilter et al., 2007]

· Mitte der 1990er Jahre erschienen die ersten kommerziellen automatischen Navigationssysteme für Autos. Effektive Mittel zur Computeranalyse von Bewegungen wurden Ende des 20. Jahrhunderts entwickelt.

· 2003 - Die ersten ausreichend zuverlässigen Gesichtserkennungssysteme für Unternehmen wurden auf den Markt gebracht.


2. Bildverarbeitungsaufgaben und Einsatzgebiete

2.1 Definition von Bildverarbeitung

Maschinelles Sehen ist die Anwendung von Computer Vision in Industrie und Fertigung. Das Interessengebiet der maschinellen Bildverarbeitung als Ingenieurrichtung sind digitale Eingabe- / Ausgabegeräte und Computernetzwerke zur Steuerung von Produktionsanlagen, wie z. B. Roboterarme oder Geräte zum Extrahieren fehlerhafter Produkte.

Maschinelles Sehen ist das Studium von Methoden und Techniken, mit denen künstliche Sehsysteme konstruiert und in praktischen Anwendungen sinnvoll eingesetzt werden können. Als solches umfasst es sowohl die Wissenschaft als auch die Technik des Sehens .

Seine Studie umfasst nicht nur die Software, sondern auch die Hardwareumgebung und Bilderfassungstechniken, die für die Anwendung erforderlich sind. Als solches unterscheidet es sich von der Computervision, die in den meisten Büchern zu diesem Thema als Bereich der Computervision erscheint möglich Design der Software, ohne allzu viel Aufmerksamkeit darauf zu richten, was in ein integriertes Bildverarbeitungssystem einfließt (obwohl moderne Bücher über Computerbildverarbeitung normalerweise ziemlich viel über die "bösen Realitäten" des Sehens sagen, wie etwa Rauschunterdrückung und Okklusionsanalyse).

2.2 Bildverarbeitung heute.

Gegenwärtig gibt es eine klare Grenze zwischen dem sogenannten monokularen und binokularen Computersehen. Der erste Bereich umfasst Forschung und Entwicklung auf dem Gebiet des maschinellen Sehens in Bezug auf Informationen, die von einer Kamera oder von jeder Kamera separat stammen. Der zweite Bereich umfasst Forschung und Entwicklung, die sich mit Informationen befassen, die gleichzeitig von zwei oder mehr Kameras kommen. Mehrere Kameras in solchen Systemen werden verwendet, um die Beobachtungstiefe zu messen. Diese Systeme werden als Stereosysteme bezeichnet.

Bis heute hat sich die Theorie des Computersehens als eigenständiger Zweig der Kybernetik vollständig entwickelt, basierend auf der wissenschaftlichen und praktischen Wissensbasis. Jedes Jahr werden Hunderte von Büchern und Monographien zu diesem Thema veröffentlicht, Dutzende von Konferenzen und Symposien abgehalten, verschiedene Soft- und Hardware und Software veröffentlicht. Es gibt eine Reihe von wissenschaftlichen und öffentlichen Organisationen, die die Forschung auf dem Gebiet moderner Technologien, einschließlich Computer-Vision-Technologien, unterstützen und hervorheben.

2.3. Hauptaufgaben der Bildverarbeitung

Im Allgemeinen umfassen die Aufgaben von Bildverarbeitungssystemen das Erhalten eines digitalen Bildes, die Bildverarbeitung, um signifikante Informationen im Bild hervorzuheben, und die mathematische Analyse der erhaltenen Daten, um die Aufgaben zu lösen.

Machine Vision ermöglicht jedoch die Lösung vieler Probleme, die sich bedingt in vier Gruppen einteilen lassen (Abb. 2) [Lysenko, 2007] :

Abb.2. Aufgaben der maschinellen Bildverarbeitung


· Positionserkennung

Der Zweck des maschinellen Sehens in dieser Anwendung besteht darin, die räumliche Position (die Position des Objekts relativ zum externen Koordinatensystem) oder die statische Position des Objekts (welche Position das Objekt in Bezug auf das Koordinatensystem mit dem Ursprung darin hat) zu bestimmen das Objekt selbst) und Informationen über die Position und Orientierung des Objekts an das Steuerungssystem oder die Steuerung übertragen.
Ein Beispiel für eine solche Anwendung ist ein Materialhandhabungsroboter, der die Aufgabe hat, Objekte verschiedener Formen aus einem Silo zu bewegen. Die gedankliche Aufgabe der Bildverarbeitung besteht beispielsweise darin, das optimale Basiskoordinatensystem und dessen Mittelpunkt zu bestimmen, um den Schwerpunkt des Bauteils zu lokalisieren. Die erhaltenen Informationen ermöglichen es dem Roboter, das Teil richtig zu greifen und an die richtige Stelle zu bewegen.

Messung

Bei Anwendungen dieser Art besteht die Hauptaufgabe einer Videokamera darin, verschiedene physikalische Parameter eines Objekts zu messen.
Ein Beispiel für physikalische Parameter ist lineare Größe, Durchmesser, Krümmung, Fläche, Höhe und Menge. Ein Beispiel für die Umsetzung dieser Aufgabe ist die Messung verschiedener Durchmesser des Halses einer Glasflasche.

Inspektion

Bei Inspektionsanwendungen besteht der Zweck der maschinellen Bildverarbeitung darin, bestimmte Eigenschaften zu bestätigen, z. B. das Vorhandensein oder Fehlen eines Etiketts auf einer Flasche, Schrauben für einen Montagevorgang, Pralinen in einer Schachtel oder das Vorhandensein verschiedener Fehler.

Identifikation

Bei Identifikationsaufgaben besteht der Hauptzweck einer Videokamera darin, verschiedene Codes (Barcodes, 2D-Codes usw.) zu lesen, um sie mittels einer Kamera oder einer Systemsteuerung zu erkennen, sowie verschiedene alphanumerische Bezeichnungen zu bestimmen. Darüber hinaus gehören zu den Aufgaben dieser Gruppe Systeme, die Sicherheitsaufgaben erfüllen, wie z. B. Personen- und Geräteidentifikation, Bewegungsmelder.

Ausgehend von den Aufgaben, die maschinelles Sehen löst, lassen sich viele Anwendungsgebiete des maschinellen Sehens unterscheiden. Allerdings ist zu beachten, dass die heutige Nachfragestruktur durch die noch begrenzten Möglichkeiten moderner Bildverarbeitungssysteme bestimmt wird.

Nachfolgend die Struktur der Marktnachfrage nach Projektthemen (Abb. 3) [Bobrovsky, 2004] :

Abb. 3. Struktur der Marktnachfrage

· 50 % aller Bildverarbeitungssysteme werden in Qualitätskontrollaufgaben eingesetzt, d. h. entscheiden Inspektion Bildverarbeitungsaufgaben. Dies ist in erster Linie eine visuelle Kontrolle über den Montageprozess, die Farbe und Qualität der Produktoberfläche, das Aussehen und die Sauberkeit der Verpackung, die Korrektheit und Lesbarkeit von Etiketten, den Flüssigkeitsstand in Behältern aller Art usw. ca. 10 % dieser Aufgaben übernehmen 3D-Vision-Systeme. Ein separates Einsatzgebiet von Bildverarbeitungssystemen in der Produktion ist die Durchführung aller Arten von visuellen Messungen der Parameter technologischer Prozesse und insbesondere die Bestimmung der Größe von Objekten, d.h. Probleme lösen Messungen .

· 20 % der Nachfrage entfallen auf Bildverarbeitungssysteme für industrielle Automatisierungsprojekte und die Einführung von Industrierobotern. Solche Bildverarbeitungssysteme vereinfachen verschiedene Arten von hochpräzisen Tätigkeiten (Montage und Demontage, Verpackung, Lackierung, Schweißen, Entsorgung), erleichtern den Warentransport und werden in Systemen zur Abrechnung, Kennzeichnung, Registrierung und Sortierung von Produkten eingesetzt. Ebenfalls Inspektion Aufgaben und Aufgaben Lage für den korrekten Betrieb des Roboters.

· 17 % aller Bildverarbeitungsverkäufe sind bekannte und leistungsstarke OCR/OCV-Druckzeichen- und Barcode-Erkennungssysteme. Die Lösung des Problems Identifikation .

· Der Markt für Bildverarbeitungssysteme für Nichtproduktionsroboter (Unterhaltung, Haushalt, Forschung) beträgt 13 %.

2.4 Hauptanwendungen der Bildverarbeitung

In Bobrovskys Artikel "Wenn die Maschinen anfangen, klar zu sehen" [Bobrovsky, 2004] Die folgende Statistik der Bereiche, in denen Bildverarbeitungssysteme gefragt sind, wird präsentiert:

· Ein kleiner Prozentsatz des Marktes entfällt auf Virtual-Reality-Systeme, die eine qualitativ neue Mensch-Computer-Schnittstelle basierend auf Gesichts- und Gestenerkennung bieten, Systeme, die Sicherheitsaufgaben übernehmen, semantische Analyse von Multimediadaten usw.

· Bildverarbeitungssysteme sind auch in der Robotik gefragt. Experten glauben, dass Bildverarbeitungstechnologie der einfachste Weg ist, Maschinen beizubringen, in der natürlichen Welt autonom zu arbeiten.

· Von Seiten landwirtschaftlicher Organisationen, wo es notwendig ist, die Aktivitäten der visuellen Kontrolle und Sortierung von Produkten zu automatisieren, wird eine erhebliche Nachfrage beobachtet, aber bisher zeigen maschinelle Bildverarbeitungssysteme unbefriedigende Ergebnisse in diesem Bereich.

· Es besteht ein wachsendes Interesse an Bildverarbeitungssystemen von Nanotechnologiefirmen, Biotechfirmen und im Bereich der Medizin (automatische Analyse medizinischer Bilder – Röntgen, Tomographie, Ultraschall)

· Machine Vision ist auch im Bereich Sicherheitssysteme gefragt (Personenidentifikation, Bewegungsmelder, Erkennung und Verfolgung von sich bewegenden Objekten, Nummernschilderkennung etc.);

· Bildverarbeitungssysteme sind im Bereich der Qualitätskontrolle und Lebensmittelinspektion (derzeit wird die Qualität von Keksen auf einer Süßwarenlinie mit einer Geschwindigkeit von 60 Kuchen pro Sekunde bewertet) sowie im Bereich der visuellen Kontrolle und des Managements gefragt (Buchhaltung, Barcodelesung).

Maschinelles Sehen wird in Erkennungssystemen für Handschrift und gedruckten Text verwendet.

3. Technische Komponente des maschinellen Sehens

3.1 Bildverarbeitungsmethoden

In Bildverarbeitungssystemen werden verschiedene Technologien und Verfahren verwendet, um die obigen Probleme zu lösen. Die wichtigsten Bildverarbeitungsmethoden sind unten aufgeführt:

· Pixelzähler: Zählt die Anzahl der hellen oder dunklen Pixel und zieht anhand des Ergebnisses die notwendigen Rückschlüsse auf das Bild.

· Auswahl verwandter Bereiche: Ein zusammenhängender Bildbereich ist einerseits ein Gegenstandstyp, der einem Rasterbild noch sehr nahe verwandt ist, und gleichzeitig bereits eine Art eigenständige semantische Einheit, die weitere geometrische, logische, topologische und jede andere Analyse des Bildes

· Binarisierung: Konvertiert ein Graustufenbild in ein Binärbild (weiße und schwarze Pixel).

· Histogramm und Histogrammverarbeitung: Das Histogramm charakterisiert die Häufigkeit des Auftretens von Pixeln gleicher Helligkeit im Bild.

· Segmentierung: Wird zum Suchen und/oder Zählen von Teilen verwendet. Bildsegmentierung ist die Aufteilung eines Bildes in Bereiche, die sich in gewisser Weise unterscheiden. Es wird angenommen, dass die Bereiche realen Objekten oder deren Teilen entsprechen und die Grenzen der Bereiche den Grenzen der Objekte entsprechen.

· Barcodes lesen: Dekodierung von 1D- und 2D-Codes zum Lesen oder Scannen von Maschinen

· Optische Zeichenerkennung: automatisiertes Lesen von Texten wie Seriennummern

· Messung: Objekte in Zoll oder Millimeter messen

· Musterabgleich: Suchen, Abgleichen und/oder Zählen bestimmter Modelle

· Invariante Algorithmen Abgleich von Punktmerkmalen auf Bildern: Erkennung und Abgleich von Punktmerkmalen auf Bildern.

· Methoden zur Identifizierung einer Person anhand der Iris des Auges

· Verschiedene Methoden zum Wiederherstellen der Form eines Objekts aus Bildern

In den meisten Fällen verwenden Bildverarbeitungssysteme eine konsistente Kombination dieser Verarbeitungsmethoden, um eine vollständige Vermessung durchzuführen. Beispielsweise kann ein System, das einen Barcode liest, die Oberfläche auch auf Kratzer oder Beschädigungen prüfen und die Länge und Breite der bearbeiteten Bauteile messen.

3.2 Systemkomponenten

Ein typisches Bildverarbeitungssystem besteht aus einer oder mehreren digitalen oder analogen Kameras (Schwarzweiß oder Farbe) mit geeigneter Optik für Bildgebung, Beleuchtung und Objekt (Abbildung 4), Eingabe-/Ausgabegeräten oder Kommunikationskanälen für die Ergebnisübermittlung. Darüber hinaus ist auch die Softwarekomponente von Bildverarbeitungssystemen wichtig, nämlich Software zur Vorbereitung von Bildern für die Verarbeitung (bei analogen Kameras ist dies ein Bilddigitalisierer), spezifische Softwareanwendungen zur Bildverarbeitung und Erkennung relevanter Eigenschaften.


Abb.4. Aufbau eines typischen Bildverarbeitungssystems

Sensormatrix Das im Lieferumfang des Camcorders enthaltene Gerät dient zum Aufnehmen digitaler Bilder. Die Erfassungselementmatrix umfasst eine Vielzahl von Analog-Digital-Wandlern, die dafür ausgelegt sind, Informationen über die Lichtintensität in einen digitalen Wert umzuwandeln.

Linse ermöglicht der Kamera, auf eine bestimmte Entfernung zu fokussieren und ein klares Bild des Motivs aufzunehmen. Wenn sich das Objekt außerhalb der Brennweite befindet, ist das Bild verschwommen (verschwommen, mit unscharfen Rändern), was die Verarbeitung der Videosequenz beeinträchtigt. Im Gegensatz zu herkömmlichen Digitalkameras mit Objektiven, die Autofokusfunktionen unterstützen, verwendet Machine Vision Optiken mit fester Brennweite oder manueller Fokuseinstellung. Es gibt verschiedene Arten von Objektiven für eine Vielzahl von Anwendungen (Standard, Teleskop, Weitwinkel, Zoom und mehr), und die Auswahl des richtigen Optiktyps ist ein wichtiger Schritt bei der Entwicklung eines Bildverarbeitungssystems.

Hintergrundbeleuchtung ist ein weiteres wichtiges Element in der Bildverarbeitung. Durch den Einsatz unterschiedlicher Beleuchtungsarten lässt sich das Aufgabenspektrum der Bildverarbeitung erweitern. Es gibt verschiedene Arten von Hintergrundbeleuchtung, aber die beliebteste ist LED - aufgrund ihrer hohen Helligkeit. Gleichzeitig sorgt der moderne Entwicklungsstand der LED-Technologie für eine lange Lebensdauer des Gerätes und einen geringen Stromverbrauch.

3.3. Funktionsprinzipien von Bildverarbeitungssystemen

Die Abfolge der vom Bildverarbeitungssystem ausgeführten Aktionen kann wie folgt dargestellt werden:

Abb.5. Die Abfolge der Aktionen des Bildverarbeitungssystems

Das von der Kamera empfangene Bild gelangt in den Framegrabber oder Computerspeicher. Ein Framegrabber ist ein Gerät, das die Ausgabe einer Kamera in ein digitales Format (normalerweise ein zweidimensionales Zahlenfeld) umwandelt und das Bild im Speicher des Computers ablegt, damit es von Bildverarbeitungssoftware verarbeitet werden kann.

Die Software durchläuft in der Regel mehrere Schritte, um die Bilder zu verarbeiten. Oft wird das Bild zunächst bearbeitet, um Rauschen zu reduzieren oder viele Graustufen in eine einfache Kombination aus Schwarz und Weiß umzuwandeln (Binarisierung). Nach der anfänglichen Verarbeitung zählt, misst und/oder bestimmt das Programm die Objekte, Größen, Defekte und andere Eigenschaften des Bildes. Als letzten Schritt überspringt oder verwirft das Programm das Teil gemäß den vorgegebenen Kriterien. Wenn das Teil defekt ist, signalisiert die Software der mechanischen Vorrichtung, das Teil abzulehnen; In einem anderen Szenario kann das System die Produktionslinie anhalten und den menschlichen Arbeiter warnen, um das Problem zu lösen, und das führte zum Ausfall. Während sich die meisten Bildverarbeitungssysteme auf „Schwarz-Weiß“-Kameras stützen, wird die Verwendung von Farbkameras immer üblicher. Darüber hinaus verwenden immer mehr Bildverarbeitungssysteme direkt angeschlossene Digitalkameras anstelle von Kameras mit separatem Bilderfassungsgerät, wodurch die Kosten gesenkt und das System vereinfacht werden.

4. Verwandte Bereiche

Maschinelles Sehen bezieht sich auf die Entwicklung automatisierter Visualisierungssysteme in Industrie und Produktion, und als solche wird maschinelles Sehen mit einer Vielzahl von Bereichen der Informatik in Verbindung gebracht: Computer Vision, Steuerungsausrüstung, Datenbanken, Netzwerksysteme und maschinelles Lernen.

Verwechseln Sie Maschinelles Sehen und Computer Vision nicht. Computer Vision ist ein allgemeineres Studiengebiet, während Machine Vision eine Ingenieurdisziplin ist, die sich auf Fertigungsaufgaben bezieht.

Werfen wir einen genaueren Blick auf verwandte Wissenschaften und deren Zusammenspiel mit der Bildverarbeitung.

4.1. Computer Vision

Computer Vision ist eine wissenschaftliche Disziplin, die die Theorie und grundlegende Algorithmen zur Analyse von Bildern und Szenen untersucht.

Die maschinelle Bildverarbeitung sollte als ein viel komplexeres und technologischeres Gebiet wissenschaftlichen und technischen Wissens betrachtet werden, das alle Probleme der Entwicklung praktischer Systeme abdeckt: die Wahl der Beleuchtungsschemata für die untersuchte Szene, die Wahl der Sensoreigenschaften, ihre Anzahl und Positionsgeometrie , Kalibrierungs- und Orientierungsfragen, die Auswahl oder Entwicklung von Geräten zur Digitalisierung und Prozessorverarbeitung, die Entwicklung der eigentlichen Algorithmen und ihre Computerimplementierung - also die gesamte Palette der damit verbundenen Aufgaben.

Außerdem gibt es so etwas wie das Sehen von Robotern. Dies ist ein enger gefasster Bereich der Bildverarbeitungstechnologien, nämlich der Teil, der den Betrieb von Bildverarbeitungssystemen unter strengen Zeitdruck sicherstellt. Viele Unternehmen rüsten beispielsweise Roboter der neuen Generation mit mobilen Kameras und Stereovisionsalgorithmen aus und arbeiten daran, intelligente Roboter zu entwickeln, die nicht nur frei in einer Wohnung navigieren und ihre Besitzer erkennen, sondern auch bestimmte Aufgaben auf ferngesteuerte Befehle ausführen können.

4.2. Bildverarbeitung und -analyse

Bildverarbeitung ist jede Form der Informationsverarbeitung, bei der die Eingabe ein Bild ist, wie z. B. Fotos oder Videoframes. Die Bildverarbeitung kann sowohl zum Erhalten eines Ausgabebildes als auch zum Erhalten anderer Informationen (z. B. Texterkennung, Zählen der Anzahl und Art der Zellen im Mikroskopfeld usw.) durchgeführt werden. Neben statischen 2D-Bildern müssen Sie auch Bilder verarbeiten, die sich im Laufe der Zeit ändern, z. B. Videos.

Neuerdings ist der traditionelle Begriff „ Bildverarbeitung» wird häufiger nicht als Bezeichnung einer wissenschaftlichen Disziplin verwendet, sondern als Hinweis auf ein Fachgebiet. Es gab auch eine Tendenz, den Begriff zu verwenden, um sich auf eine Verarbeitung auf niedriger Ebene zu beziehen, bei der das Ergebnis der Bildverarbeitung wiederum ein Bild ist. Gleichzeitig der Begriff Bildverständnis» wird für die Verarbeitung auf höherer Ebene verwendet.

Digitale Photogrammetrie, eine sich in den letzten Jahren schnell entwickelnde Disziplin, hat die analytische Photogrammetrie abgelöst. Während die klassische analytische Photogrammetrie hauptsächlich die metrischen Beziehungen zwischen den Punkten von Bildern und der realen Szene untersuchte, stellt die moderne digitale Photogrammetrie die schwierigsten Aufgaben der Analyse und 3D-"Beschreibung der Szene aus den Videodaten optischer Sensoren. Die digitale Photogrammetrie konzentriert sich primär nicht darauf die Fragen des "Verstehens" der Szene oder der Erkennung von Objekten, sondern Fragen der hochpräzisen Messung ihrer verschiedenen Elemente und der Rekonstruktion der Formen dreidimensionaler Oberflächen mit Stereo- und Mehrkameraaufnahmen sowie spezieller strukturierter Beleuchtung.

4.3. Maschinelles Lernen

Maschinelles Lernen ist ein umfangreicher Teilbereich der künstlichen Intelligenz, der Methoden zum Erstellen von lernfähigen Algorithmen untersucht. Der Zweck des maschinellen Lernens ist die teilweise oder vollständige Automatisierung der Lösung komplexer beruflicher Probleme in verschiedenen Bereichen menschlicher Tätigkeit. Maschinelles Lernen hat ein breites Anwendungsspektrum, darunter auch Bilderkennungsanwendungen, das Gebiet, mit dem sich maschinelles Sehen befasst.

5. Die interessantesten Beispiele für Bildverarbeitungssysteme

5.1. Videoüberwachung

Automatische und automatisierte Videoüberwachungssysteme sind eine der Schlüsselkomponenten moderner integrierter Sicherheitssysteme. Die Aufgabe der Videoüberwachung umfasst die visuelle Kontrolle eines bestimmten Raumbereichs mithilfe einer oder mehrerer Videokameras, mit denen Sie digitale Videodaten speichern und anzeigen sowie den Zustand des überwachten Bereichs ständig bewerten und die so- Sicherheitsereignisse genannt.

Die Sicherheitsvideoüberwachung hat heute zwei wichtige Entwicklungsbereiche – einen vollständigen Übergang zu digitalen Videoüberwachungssystemen und die Entwicklung von Videoanalysefunktionen. Die digitale (IP) Videoüberwachung beinhaltet den Verzicht auf analoge Kameras und Datenübertragung. Die Videoanalyse stellt die Weiterentwicklung der Funktionen von Videoüberwachungssystemen dar, mit denen Sie die Menge der aufgezeichneten Daten reduzieren können.

Ein modernes Videoüberwachungssystem umfasst eine beträchtliche Anzahl verschiedener Computer-Vision-Technologien. Intelligente Videoüberwachungstechnologie sollte die folgenden Hauptelemente und softwarealgorithmischen Module umfassen:

Verschiedene Arten von visuellen Sensoren für die Videofernüberwachung

Tools für die verteilte Sammlung von Informationen, Komprimierung, Verarbeitung und Übertragung von digitalen Videoinformationen über lokale und globale Netzwerke in Echtzeit

Automatische Auswahl von Objekten von Interesse (Personen, Fahrzeuge, andere Objekte)

Automatische Verfolgung bewegter Objekte im Überwachungsbereich

biometrische Erkennung des Personals, biometrische Kontrolle des Zugangs zu kritischen Bereichen des Beobachtungsobjekts

Automatische Identifizierung von Fahrzeugen, Ladung und Ausrüstung basierend auf der Erkennung von Identifikationsmerkmalen (Kennzeichen, Strichcodes, andere technologische Markierungen)

Methoden zur Bewertung von Verhaltensszenarien von beobachteten Objekten und Objektgruppen

Bildung von "Alarm"-Meldungen an den Bediener bei ungünstigen oder nicht standardmäßigen Szenarien der Entwicklung von Ereignissen in der Videoüberwachungszone

· Software und Hardware zur Implementierung von Methoden und Algorithmen zum Sammeln und Verarbeiten von Videoinformationen.

Betrachten Sie einige Beispiele für die Erstellung von Videoüberwachungssystemen und deren Elementen.

5.1.1. System zum Erkennen und Verfolgen von sich bewegenden Objekten anhand ihrer Bewegung

Die Bewegungserkennungstechnologie im Sichtfeld der Kamera oder Bewegungserkennung wurde zu einer der ersten kommerziellen Technologien auf dem Verbrauchermarkt für Webkameras. [Morzeev, 2002]. Das Funktionsprinzip der Technologie ist sehr einfach, da davon ausgegangen wird, dass die Kamera stationär ist und daher auch der Hintergrund stationär ist. Nur Objekte bewegen sich. Obwohl es Technologien gibt, mit denen Sie sich bewegende Objekte vor einem sich bewegenden Hintergrund erkennen können.

Das am IIT (Institut für Informationstechnologie) entwickelte System dient der automatischen Auswahl und Verfolgung kleiner Objekte anhand ihrer Bewegung in Bildern einer sich bewegenden Videokamera.

Das auf der Basis eines Personalcomputers implementierte System führt Eingaben von einer Videokamera, Visualisierung und Verarbeitung digitaler Bilder von bewegten Szenen in Echtzeit durch. Das System wertet und kompensiert die allgemeine Verschiebung des Szenenbildes, die durch die Relativbewegung des Bildempfängers auftritt, sowie die Auswahl sich bewegender kleinformatiger Objekte anhand ihrer Bewegung und die gleichzeitige Verfolgung der Bewegung mehrerer erfasster Objekte Objekte. Fig. 6 zeigt: links – ein Einzelbild einer Videosequenz mit ausgewählten sich bewegenden Objekten; rechts - die Phasen der Auswahl von sich bewegenden Objekten.

Abb.6. Isolierung von sich bewegenden Objekten in der Überwachungsszene

Erkennungs- und Verfolgungssysteme für sich bewegende Objekte können verschiedene Funktionen haben, wie zum Beispiel:

Erkennung neuer Objekte der Überwachungsszene;

Detektion fehlender Objekte der Überwachungsszene;

Registrierung einer neuen Überwachungsszene;

Kontrolle der Abwesenheit von Kameraverschiebungen relativ zur Beobachtungsszene.

5.1.2. Lesesystem für Fahrzeugkennzeichen

Wie bereits erwähnt, besteht eine der Funktionen von Videoüberwachungssystemen darin, die Identifikationsmerkmale von Objekten zu lesen, in erster Linie die Anzahl der Fahrzeuge, die den Überwachungsbereich überqueren.

Eine der typischen Anwendungen dieser Art ist das am IIT entwickelte System zur Identifizierung und Erkennung von Nummernschildern von Autos im Straßenverkehr auf der Autobahn. Das Nummernschild-Lesesystem wird auf der Grundlage des Intellect-Videoüberwachungssystems von ITV implementiert und auf einer Reihe ausländischer Autobahnen eingesetzt [Vizilter et al., 2007] .

Systemfunktionen:

Registrierung des Aussehens des Autos (Autos zählen);

Nummernschildauswahl;

Kennzeichenerkennung;

Speichern des erkannten Kennzeichens in der Datenbank.

5.2 Biometrie

In den letzten Jahren gab es weltweit ein ständig wachsendes Interesse an Verfahren zur Erkennung und Identifizierung einer Person. Die wesentlichen Mittel und Wege zur Lösung dieser Probleme liegen in der Entwicklung biometrischer Systeme. Biometrische Systeme zur Personenerkennung verwenden eine Reihe biometrischer Merkmale, die auf den biologischen Merkmalen des menschlichen Körpers basieren. Solche biometrischen Merkmale können Stimme, Handschrift, Fingerabdrücke, Handgeometrie, Netzhaut- oder Irismuster, Gesicht und DNA sein.

Der biometrische Schutz ist effektiver als Methoden wie die Verwendung von Passwörtern, PIN-Codes oder Smartcards, da die Biometrie es Ihnen ermöglicht, eine bestimmte Person und kein Gerät zu identifizieren. Herkömmliche Schutzmethoden schließen nicht aus, dass Informationen verloren gehen oder gestohlen werden, wodurch sie illegalen Benutzern zugänglich werden. Ein eindeutiger biometrischer Identifikator, wie ein Fingerabdruck oder ein Gesichtsbild, dient als unverlierbarer Schlüssel.

Das biometrische Sicherheitssystem ermöglicht es Ihnen, den Passwortschutz zu verweigern oder dient dazu, ihn zu verbessern. Einer der Hauptgründe, die die Bedeutung der automatischen Verarbeitung und Analyse biometrischer Informationen deutlich erhöht haben, waren die gestiegenen Anforderungen an die Funktionalität von automatischen Sicherheitssystemen, die sich an öffentlichen Orten (Bahnhöfe, Supermärkte usw.)

Betrachten Sie einige Beispiele für biometrische Anwendungen, die in der Praxis anzutreffen sind.

5.2.1. Gesichtserkennungs- und Erkennungssystem

Das IIT hat eine Technologie zum Erkennen und Erkennen von Gesichtern aus zweidimensionalen Bildern entwickelt, die drei Hauptmodule umfasst:

Gesichtserkennung (Erkennung);

Indizierung (Codierung und anschließende Schnellsuche von Gesichtern in der Datenbank);

Personenidentifikation.

Die Module werden nacheinander angewendet. Die im aktuellen Einzelbild ausgewählten Gesichtsbilder treten in das Indizierungssystem ein, das als Antwort die spezifizierte Anzahl von "Kandidaten" aus der gespeicherten Gesichtsbilddatenbank anzeigt, die dem aktuellen Bild am ähnlichsten sind. Danach verarbeitet das Identifizierungsverfahren die Bilder der Gesichter der gefundenen Kandidaten, um sie genau zu erkennen. Dieser Ansatz ermöglicht ein voll funktionsfähiges Arbeiten mit einem "Live"-Videostream, um Gesichter aus großen Mengen von Bilddatenbanken nahezu in Echtzeit zu isolieren und zu erkennen.

Abbildung 7 zeigt die Komponenten der oben beschriebenen Gesichtserkennungs- und -erkennungstechnologie.

Abb.7. Gesichtserkennungs- und Erkennungssystem

Gezeigt werden: aktuelles Videobild (oben links), Ergebnis der Gesichtsauswahl (oben rechts); Suchergebnis in der indizierten Datenbank mit Gesichtsbildern (die zweite Reihe von Bildern sind die gefundenen „Kandidaten“, unter denen es falsche geben kann); das Ergebnis der endgültigen Identifizierung des Gesichts (die dritte Reihe von Bildern - nur "Kandidaten", die die Identifizierung erfolgreich bestanden haben, werden angezeigt).

5.2.2. Erkennungssystem für menschliche Handgesten

Gestenerkennung ist ein weites Feld von Computer-Vision-Anwendungen. „Gesten“ im weiteren Sinne bezieht sich auf jede Bewegung des menschlichen Körpers. Im engeren Sinne sind damit meist einige charakteristische Handbewegungen einer Person gemeint, die bestimmte semantische Bedeutungen in einem bestimmten Fachgebiet haben. Gestenerkennung kann verwendet werden, um verschiedene Arten von Mensch-Maschine-Schnittstellen zu bauen, verschiedene technische Mittel und Virtual-Reality-Systeme zu steuern.

Als einfaches Beispiel können wir ein System zur Erkennung menschlicher Handgesten aus Bildern einer Schwarz-Weiß-Videokamera mit niedriger Auflösung betrachten (Abb. 8). Das System erfordert kein vorheriges Training und unterscheidet konsistent bis zu 10 verschiedene Gesten

Abb.8. Ein einfaches Beispiel für ein Gestenerkennungssystem

5.3 Medizinische Anwendungen

Einen besonderen Stellenwert in der Entwicklung von Computer-Vision-Systemen nehmen die Aufgaben der medizinischen Diagnostik ein. Die Hauptaufgaben, die diese Technologien hier lösen sollten, sind wie folgt: die Aufgabe, Objekte auf Röntgenbildern, Computertomogrammen und modernen digitalen Ultraschallgeräten zu vermessen, die Aufgabe, die Visualisierung zu verbessern, die Aufgabe, die dreidimensionalen Formen von Objekten wiederherzustellen. Die modernste und sich am schnellsten entwickelnde Technologie in der Entwicklung medizinischer Diagnoseanwendungen ist die Technologie, die mit der Bestimmung des Grades der Alkohol- und Drogenvergiftung auf der Grundlage der Analyse der Pupillenreaktion des Patienten verbunden ist.

5.3.1. Systeme zur Computeranalyse von Tomographiebildern

Bei der Entwicklung von universellen tomographischen Bildanalysesystemen wurde der Schwerpunkt auf die Entwicklung automatischer und halbautomatischer Bildsegmentierungsverfahren gelegt. Das implementierte Schema des Segmentierungsalgorithmus umfasst:

Primäre Histogrammsegmentierung durch statistische Modusextraktion;

Bildung zusammenhängender Bereiche mit festgelegten Eigenschaften durch das Verfahren des Zusammenführens/Aufteilens.

Die speziell für diese Klasse von Problemen entwickelte Methode der statistischen Modusextraktion ermöglicht es, die Anzahl und Schwere von Histogrammmodi abzuschätzen (Abb. 9), basierend auf dem entsprechenden Diagramm der statistischen Ableitung.

Abb.9. Ein Beispiel für die automatische Modustrennung in einem Histogramm

Das Verfahren des Zusammenführens/Aufteilens verbundener Bereiche verwendet die in der ersten Stufe erhaltene Markierung von Bildpixeln als Startnäherung, wonach der Prozess der iterativen Relaxation stattfindet, um die gegebene Energiefunktion zu minimieren. Der Segmentierungsalgorithmus kann sowohl im automatischen als auch im halbautomatischen Modus verwendet werden. In diesem Fall kann der Arzt-Operator den Prozess der Segmentierung der für ihn interessanten Objekte initialisieren, indem er die für ihn interessanten Punkte spezifiziert.

6. Die Zukunft der Bildverarbeitung.

6.1. Vor- und Nachteile von Bildverarbeitungssystemen

Der Hauptnachteil von Bildverarbeitungssystemen, der das Wachstum ihres Marktes spürbar einschränkt, ist das Fehlen einheitlicher Standards für Geräte- und Softwareschnittstellen. Systemanwender beschweren sich ständig über die Unfähigkeit, Systeme verschiedener Hersteller zu verwenden, und Integrationsprodukte in diesem Bereich sind nicht billig. Da sich die Qualität des gescannten Bildes verbessert, besteht außerdem ein zunehmender Bedarf an effizienter Systemsoftware, um Videodaten schnell zu erfassen, zu bereinigen, zu komprimieren und zu speichern. Wenn solche Funktionen im Laufe der Zeit in Hardware implementiert werden, können wir eine steigende Nachfrage nach eingebetteten Bildverarbeitungssystemen vorhersagen.

Vielversprechend erscheint das Konzept der multispektralen Bildverarbeitungssysteme, die nicht nur Bilder im Bereich des für den Menschen sichtbaren Spektrums verarbeiten, sondern auch mit Radar- oder Lasersystemen sowie Infrarotkameras gewonnen werden (Beispiele für den Einsatz von Bildverarbeitungssystemen finden sich in Erkennung von Wärmefeldern von Menschen in Sicherheitssystemen und bei der Analyse der Qualität heißer Brötchen in der Süßwarenindustrie). Das Haupthindernis auf diesem Entwicklungsweg des maschinellen Sehens sind die hohen Kosten und die Komplexität des Betriebs der entsprechenden Sensoren.

Das Verfahren zur Kalibrierung von Bildverarbeitungssystemen bei der Abstimmung auf ein bestimmtes Fachgebiet ist langwierig und kompliziert. Oft erfordert es erhebliche Zeit und Rechenressourcen, um ein neuronales Netzwerk zu trainieren. Anwendungssoftware hat auch oft eine unbequeme Schnittstelle, und die Rekonfiguration des Systems auf eine neue Nomenklatur und sogar in Echtzeit, worauf der Benutzer oft besteht, ist meistens unmöglich. Einkäufer benötigen bereits Systeme, die Produkte auf dem Förderband nicht stückweise, sondern sofort analysieren können – indem sie alles untersuchen, was sich gerade auf dem Band befindet, und sofort den Zustand aller Produkte bewerten.

Es fehlt an guten mathematischen Algorithmen, die sich an Rechnern mit hoher Leistung orientieren und Parallelverarbeitung unterstützen. Das Problem der Erkennung ähnlicher, aber unterschiedlich beleuchteter Objekte ist nach wie vor ungelöst und auf absehbare Zeit nicht zu bewältigen.

Der Markt wird durch hohe Erwartungen der Verbraucher, nicht sehr hohe Rentabilität bestehender Systeme, eine geringe Anzahl guter Produkte sowie die Fähigkeit, Produktionsprobleme auf andere Weise zu lösen - ohne Bildverarbeitungssysteme, mit Hilfe billiger - negativ beeinflusst Personal.

Aber all diese Probleme sind vorübergehend. Führende Anbieter einigen sich bereits auf gemeinsame Standards, für die geplant ist, ein öffentliches Repository mit Wissen und typischen Produktvorlagen zu erstellen, Softwareschnittstellen zu definieren und eine Vereinbarung über Sprachen zur Beschreibung und Darstellung von Bildverarbeitungsdaten zu entwickeln [Bobrovsky, 2004] .

Das Interesse an Bildverarbeitungssystemen wird maßgeblich durch den Erfolg von Maschinen in den Bereichen gestützt, in denen sie dem Menschen in seinen Fähigkeiten weit überlegen sind. So ist ein Computer in der Lage, Tausende von Graustufen in einem Bild zu erkennen und Millionen von Farben zu unterscheiden, sehr schnell typische und gut formalisierte Erkennungsaufgaben zu lösen und feine Details von Bildern zu bestimmen. Und die wachsende Rechenleistung billiger Prozessoren stimuliert die Veröffentlichung von "sehenden" Robotern für öffentliche Haushalte und Industrie, die von einem herkömmlichen PC gesteuert werden.

Hersteller elektronischer Sicherheitssysteme erwarten, maschinellen Bildverarbeitungssystemen beizubringen, Objekte automatisch zu klassifizieren. Ein gutes System wird alle Arten von Fahrzeugen im Videobild erkennen und ihre Marken bestimmen, nach bestimmten Personen in der Menge suchen, die Flugbahnen von Personen und sogar die Bewegungen von Körperteilen verfolgen, mögliches Verhalten vorhersagen usw.

Matt Allen, Business Leader bei Microscan, beschreibt den Wert von Bildverarbeitungssystemen: „Die heutigen schnellen Liefer- und Auftragsfertigungstechnologien haben Informationen zu einem der wertvollsten Vermögenswerte des Unternehmens gemacht. Bildverarbeitungssysteme sind das Rückgrat, das die Automatisierung von viele Herstellungsprozesse. Da Machine-Vision-Datenerfassungstools in Bereichen wie Hochgeschwindigkeitssortierung, Produktqualitätskontrolle und Auftragsfortschrittsverfolgung eingesetzt werden."

6.2 Die Zukunft der Bildverarbeitung

Das maschinelle Sehen hat alle Chancen, das menschliche Sehen in den nächsten zehn Jahren zu übertreffen. Schon jetzt können Roboter durch Wände und meilenweit voraussehen. Die letzte Bastion – die Dekodierung von Videoinformationen – wird bald fallen. Roboterautos, Roboterzüge und Roboterflugzeuge werden in Betrieb genommen. Und auch - Ärzte, deren Skalpell niemals brechen wird, und ein scharfes Auge werden die Arterie rechtzeitig bemerken.

Es bleibt zu hoffen, dass die Menschen in der Lage sein werden, die Macht des maschinellen Sehens in die richtige Richtung zu lenken und nicht voreilig Terminatoren zu entwerfen [Talan, 2007] .

Bildverarbeitungssysteme haben recht gute Aussichten. Das ideale Bildverarbeitungssystem wäre vollständig digital und würde intelligente Kameras und kostengünstige Hardware verwenden, die eine Reihe standardisierter Bildverarbeitungs- und Erkennungsfunktionen implementieren würde. Der Schlüssel zum Erfolg wird natürlich eine komfortable intelligente Softwareumgebung sein, die sich flexibel und schnell auf ein beliebiges Themengebiet abstimmen lässt, eine dynamische Erweiterung der Funktionalität und ein einfaches Andocken an technologische Geräte ermöglicht.

Laut Hirohisa Hirukawa, einem Forscher am National Institute for Advanced Science and Technology, könnte die Robotik im 21. Jahrhundert die größte Industrie des 21. Jahrhunderts werden, ähnlich wie die Automobile im 20. Jahrhundert. Gleichzeitig ist bis 2025 oder zumindest bis 2050 mit einer massiven Verbreitung von Robotern zu rechnen, die der Verrichtung von Haushaltsarbeiten dienen [Morzeev, 2002].

Bob Taplett, Projektmanager bei Microscan, sagt: „Ich kann mit Sicherheit sagen, dass Bildverarbeitungssysteme in Zukunft zu Datenerfassungssystemen werden, die in der Lage sind, eine viel breitere Palette von Problemen zu lösen.


Fazit

Machine Vision ist ein eher umstrittenes Thema. Einerseits wurden auf diesem Gebiet beeindruckende Ergebnisse erzielt und viele Aufgaben gelöst. Bildverarbeitungssysteme bewältigen Produktionsautomatisierung, Videoüberwachung und Analyse medizinischer Bilder. Andererseits ist das maschinelle Sehen noch weit vom Menschen entfernt. Viele Höhen wurden erreicht, viele weitere stehen noch bevor. Daher gibt es zwei Sichtweisen auf die Entwicklung der Bildverarbeitung. Einige sagen, dass Maschinen beispiellose Höhen erreichen und enorme Kräfte entwickeln werden, bevor sie dem Menschen voraus sind. Andere argumentieren, dass Maschinen niemals Menschen übertreffen werden und maschinelles Sehen für einige Probleme, die menschliches Eingreifen erfordern, ungeeignet bleiben wird.

Die Unvollkommenheit des maschinellen Sehens ist teilweise technisch bedingt, aber die Informationstechnologie entwickelt sich rasant und es gibt immer mehr Lösungen für technische Probleme.

Bildverarbeitungssysteme werden immer relevanter, da sie darauf ausgelegt sind, die dringendsten Probleme der Menschheit zu lösen, wie z. B. Sicherheitsprobleme, medizinische Probleme und Probleme mit der Produktqualität.

Referenzliste

· [Bobrovsky, 2004] Bobrovsky S. „Wenn die Maschinen das Licht sehen“ – http://www.pcweek.ru/themes/detail.php?ID=66663&sphrase_id=12198

· [Vizilter et al., 2007] Vizilter Yu. V., Zheltov S. Yu., Knyaz V. A., Khodarev A. N., Morzhin A. V. Verarbeitung und Analyse digitaler Bilder mit Beispielen auf LabVIEW IMAQVision. – M.: DMK-Presse, 2007.

· [Zueva, 2008] Zueva E. Yu. „Computer Vision bei IPM ihnen. V.M. Keldysh RAS - Entwicklungsgeschichte" - http://www.keldysh.ru/papers/2009/art04/Zueva_09.htm

· [Katys, 1990] Katys GP Verarbeitung visueller Informationen. - M.: Mashinostroenie, 1990.

· [Computer Vision] Computer (maschinelles) Sehen http://es-prof.com/m_mvision.php

· [Lysenko, 2007] Lysenko O. Bildverarbeitung von SICK/IVP // Komponenten und Technologien. 2007. Nr. 1

· [Morzeev, 2002] Morzeev Y. "Warum braucht ein Computer Vision" - http://www.compress.ru/article.aspx?id=10656&iid=434

· [Talan, 2007] Talan A. Perspektiven des maschinellen Sehens, 2007 - http://www.mirf.ru/Articles/art2170.htm

· Davies E. R. Machine Vision: Theorie, Algorithmen, Praktika. Akademische Presse, 2004.

· Computer Vision - http://www.graphicon.ru/oldgr/ru/library/cv/cv_intro.html

· [ Wikipedia , 2010] Maschinelles Sehen - http://en.wikipedia.org/wiki/Machine_vision

maschinelles Sehen- Dies ist eine wissenschaftliche Richtung auf dem Gebiet der künstlichen Intelligenz, insbesondere der Robotik, und verwandter Technologien zur Gewinnung von Bildern von Objekten der realen Welt, deren Verarbeitung und Verwendung der gewonnenen Daten zur Lösung verschiedener Arten von angewandten Problemen ohne Beteiligung (vollständig oder teilweise) einer Person.

Historische Durchbrüche in der Bildverarbeitung

Komponenten eines Bildverarbeitungssystems

  • Eine oder mehrere digitale oder analoge Kameras (Schwarzweiß oder Farbe) mit geeigneter Optik für die Bildgebung
  • Software zum Erstellen von Bildern zur Verarbeitung. Bei analogen Kameras ist dies ein Bilddigitalisierer
  • Prozessor (moderner PC mit Mehrkernprozessor oder eingebetteter Prozessor wie DSP)
  • Bildverarbeitungssoftware, die Werkzeuge für die Entwicklung individueller Softwareanwendungen bereitstellt.
  • E/A-Geräte oder Kommunikationskanäle zum Melden von Ergebnissen
  • Intelligente Kamera: Ein Gerät, das alle oben genannten Funktionen enthält.
  • Sehr spezielle Lichtquellen (LEDs, Leuchtstoff- und Halogenlampen usw.)
  • Spezifische Softwareanwendungen für die Bildverarbeitung und Erkennung verwandter Eigenschaften.
  • Ein Sensor zum Synchronisieren der Erkennungsteile (häufig ein optischer oder magnetischer Sensor) zum Erfassen und Verarbeiten von Bildern.
  • Geformte Laufwerke zum Sortieren oder Aussortieren defekter Teile.

Machine Vision konzentriert sich hauptsächlich auf industrielle Anwendungen wie autonome Roboter und visuelle Inspektions- und Messsysteme. Das bedeutet, dass Bildsensortechnologien und Steuerungstheorie mit der Verarbeitung von Videodaten zur Steuerung des Roboters verbunden sind und die Echtzeitverarbeitung der empfangenen Daten in Software oder Hardware durchgeführt wird.

Bildverarbeitung und Bildanalyse konzentrieren sich hauptsächlich auf die Arbeit mit 2D-Bildern, d.h. wie man ein Bild in ein anderes umwandelt. Zum Beispiel Kontrastverbesserungsoperationen pro Pixel, Kantenverbesserungsoperationen, Entrauschungsoperationen oder geometrische Transformationen wie Bildrotation. Diese Operationen setzen voraus, dass die Bildverarbeitung/-analyse unabhängig vom Inhalt der Bilder selbst arbeitet.

Computer Vision konzentriert sich auf die Verarbeitung von 3D-Szenen, die auf ein oder mehrere Bilder projiziert werden. Beispielsweise das Wiederherstellen der Struktur oder anderer Informationen über die 3D-Szene aus einem oder mehreren Bildern. Computer Vision hängt oft von mehr oder weniger komplexen Annahmen darüber ab, was in den Bildern dargestellt wird.

Es gibt auch ein Feld namens Visualisierung, das ursprünglich mit dem Prozess der Bilderzeugung verbunden war, sich aber manchmal mit der Verarbeitung und Analyse befasste. Die Radiographie arbeitet beispielsweise mit der Analyse medizinischer Anwendungsvideodaten.

Schließlich ist die Mustererkennung ein Gebiet, das verschiedene Methoden verwendet, um Informationen aus Videodaten zu extrahieren, hauptsächlich basierend auf einem statistischen Ansatz. Ein wesentlicher Teil dieses Bereichs widmet sich der praktischen Anwendung dieser Methoden.

Somit können wir schlussfolgern, dass der Begriff „maschinelles Sehen“ heute Folgendes umfasst: Computer Vision, visuelle Mustererkennung, Bildanalyse und -verarbeitung usw.

Aufgaben der maschinellen Bildverarbeitung

  • Erkennung
  • Identifikation
  • Erkennung
  • Texterkennung
  • Wiederherstellen einer 3D-Form aus 2D-Bildern
  • Bewegungsschätzung
  • Wiederherstellung der Szene
  • Bildwiederherstellung
  • Isolierung von Strukturen eines bestimmten Typs auf Bildern, Bildsegmentierung
  • Optische Flussanalyse

Erkennung


Eine klassische Aufgabe in Computer Vision, Bildverarbeitung und Machine Vision ist die Bestimmung, ob Videodaten ein charakteristisches Objekt, Merkmal oder eine Aktivität enthalten.
Diese Aufgabe kann von einem Menschen zuverlässig und einfach gelöst werden, ist aber in der Computer Vision im allgemeinen Fall noch nicht zufriedenstellend gelöst: zufällige Objekte in zufälligen Situationen.
Ein oder mehrere vordefinierte oder erlernte Objekte oder Objektklassen können erkannt werden (normalerweise zusammen mit ihrer zweidimensionalen Position im Bild oder ihrer dreidimensionalen Position in der Szene).

Identifikation


Eine einzelne Instanz eines zu einer Klasse gehörenden Objekts wird erkannt.
Beispiele: Identifizierung eines bestimmten menschlichen Gesichts oder Fingerabdrucks oder Autos.

Erkennung


Die Videodaten werden auf einen bestimmten Zustand überprüft.
Eine auf relativ einfachen und schnellen Berechnungen basierende Erkennung wird manchmal verwendet, um kleine Bereiche in dem analysierten Bild zu finden, die dann unter Verwendung ressourcenintensiverer Techniken analysiert werden, um die korrekte Interpretation zu erhalten.

Texterkennung


Bildsuche nach Inhalt: Finden aller Bilder in einer großen Menge von Bildern, deren Inhalt auf verschiedene Weise definiert ist.
Positionsschätzung: Bestimmen Sie die Position oder Ausrichtung eines bestimmten Objekts relativ zur Kamera.
Optische Zeichenerkennung: Zeichenerkennung in Bildern von gedrucktem oder handgeschriebenem Text (normalerweise zum Übersetzen in ein Textformat, das für die Bearbeitung oder Indizierung bequemer ist, z. B. ASCII).


Die Wiederherstellung einer 3D-Form aus 2D-Bildern wird unter Verwendung von Stereo-Tiefenkartenrekonstruktion, Normalfeld- und Tiefenkartenrekonstruktion durch Schattierung eines Halbtonbildes, Tiefenkartenrekonstruktion durch Textur und Formbestimmung durch Verschiebung ausgeführt.

Ein Beispiel für die Wiederherstellung einer 3D-Form aus einem 2D-Bild

Bewegungsschätzung

Mehrere Bewegungsschätzungsaufgaben, bei denen eine Folge von Bildern (Videodaten) verarbeitet wird, um eine Schätzung der Geschwindigkeit jedes Punktes in einem Bild oder einer 3D-Szene zu finden. Beispiele für solche Aufgaben sind: Bestimmen der dreidimensionalen Bewegung der Kamera, Tracking, also Verfolgen der Bewegungen eines Objekts (z. B. Autos oder Personen)

Wiederherstellung der Szene

Gegeben sind zwei oder mehr Bilder einer Szene oder Videodaten.
Die Szenenrestaurierung hat die Aufgabe, ein dreidimensionales Modell der Szene neu zu erstellen.
Das Modell kann im einfachsten Fall eine Menge von Punkten im dreidimensionalen Raum sein. Anspruchsvollere Verfahren reproduzieren das vollständige 3D-Modell.

Bildwiederherstellung


Die Aufgabe der Bildrestaurierung besteht darin, Rauschen (Sensorrauschen, Bewegungsunschärfe etc.) zu entfernen.
Der einfachste Ansatz zur Lösung dieses Problems sind verschiedene Arten von Filtern, wie beispielsweise Tiefpass- oder Mittelpassfilter.
Ein höheres Maß an Rauschunterdrückung wird erreicht, indem zunächst die Videodaten auf das Vorhandensein verschiedener Strukturen wie Linien oder Kanten analysiert werden und dann der Filterprozess basierend auf diesen Daten verwaltet wird.

Bildwiederherstellung

Optische Flussanalyse (Ermitteln der Bewegung von Pixeln zwischen zwei Bildern).
Mehrere Bewegungsschätzungsaufgaben, bei denen eine Folge von Bildern (Videodaten) verarbeitet wird, um eine Schätzung der Geschwindigkeit jedes Punktes in einem Bild oder einer 3D-Szene zu finden.
Beispiele für solche Aufgaben sind: Bestimmung der dreidimensionalen Bewegung der Kamera, Tracking, d.h. Verfolgen der Bewegungen eines Objekts (z. B. Autos oder Personen).

Bildverarbeitungsmethoden

Pixelzähler

Zählt die Anzahl der hellen oder dunklen Pixel.
Mit Hilfe des Pixelzählers kann der Nutzer beispielsweise einen rechteckigen Bereich auf dem Bildschirm an einem Ort von Interesse auswählen, an dem er die Gesichter von Passanten erwartet. Die Kamera antwortet sofort mit Informationen über die Anzahl der Pixel, die durch die Seiten des Rechtecks ​​dargestellt werden.
Mit dem Pixelzähler können Sie schnell überprüfen, ob die installierte Kamera die behördlichen oder kundenspezifischen Anforderungen an die Pixelauflösung erfüllt, beispielsweise für Gesichter, die von der Kamera gesteuerte Türen betreten, oder für die Nummernschilderkennung.

Binarisierung


Konvertiert ein Graustufenbild in ein Binärbild (weiße und schwarze Pixel).
Die Werte jedes Pixels werden herkömmlicherweise als "0" und "1" codiert. Der Wert "0" wird herkömmlicherweise als Hintergrund oder Hintergrund und "1" als Vordergrund bezeichnet.
Beim Speichern digitaler Binärbilder wird häufig eine Bitmap verwendet, bei der ein Informationsbit verwendet wird, um ein Pixel darzustellen.
Außerdem waren die beiden möglichen Farben, insbesondere in den frühen Stadien der Technologieentwicklung, Schwarz und Weiß, was nicht zwingend erforderlich ist.

Segmentierung

Wird verwendet, um Teile zu finden und/oder zu zählen.
Der Zweck der Segmentierung besteht darin, die Darstellung eines Bildes zu vereinfachen und/oder zu ändern, damit es einfacher und leichter zu analysieren ist.
Die Bildsegmentierung wird üblicherweise verwendet, um Objekte und Grenzen (Linien, Kurven usw.) in Bildern hervorzuheben. Genauer gesagt ist die Bildsegmentierung der Prozess, jedem Pixel in einem Bild Labels zuzuweisen, so dass Pixel mit demselben Label visuelle Eigenschaften teilen.
Das Ergebnis der Bildsegmentierung ist ein Satz von Segmenten, die zusammen das gesamte Bild abdecken, oder ein Satz von aus dem Bild extrahierten Konturen. Alle Pixel in einem Segment sind in einigen charakteristischen oder berechneten Eigenschaften wie Farbe, Helligkeit oder Textur ähnlich. Benachbarte Segmente unterscheiden sich in dieser Eigenschaft signifikant.

Barcodes lesen


Barcode - grafische Informationen, die auf der Oberfläche, Kennzeichnung oder Verpackung von Produkten angebracht sind und die Möglichkeit darstellen, sie mit technischen Mitteln zu lesen - eine Folge von schwarzen und weißen Streifen oder anderen geometrischen Formen.
In der maschinellen Bildverarbeitung werden Barcodes verwendet, um 1D- und 2D-Codes zu dekodieren, die von Maschinen gelesen oder gescannt werden sollen.

Optische Zeichenerkennung

Optical Character Recognition: Automatisiertes Lesen von Texten wie Seriennummern.
OCR wird verwendet, um Bücher und Dokumente in elektronische Form zu konvertieren, Geschäftsbuchhaltungssysteme zu automatisieren oder Text auf einer Webseite zu veröffentlichen.
OCR ermöglicht es Ihnen, Text zu bearbeiten, nach Wörtern oder Sätzen zu suchen, ihn in kompakterer Form zu speichern, Material ohne Qualitätsverlust anzuzeigen oder zu drucken, Informationen zu analysieren und Text elektronisch zu übersetzen, zu formatieren oder zu sprechen.

Mein in LabView geschriebenes Programm zum Arbeiten mit Bildern.

Computer Vision wird zur zerstörungsfreien Qualitätskontrolle von supraleitenden Materialien eingesetzt.

Einführung. Die Lösung der Probleme der Gewährleistung integrierter Sicherheit (sowohl Anti-Terror- als auch mechanische Sicherheit von Objekten und technologische Sicherheit von Ingenieursystemen) erfordert derzeit eine systematische Organisation der Kontrolle des aktuellen Zustands von Objekten. Eine der vielversprechendsten Methoden zur Überwachung des aktuellen Zustands von Objekten sind optische und optoelektronische Verfahren, die auf den Technologien zur Verarbeitung von Videobildern einer optischen Quelle basieren. Dazu gehören: Programme zum Arbeiten mit Bildern; die neuesten Methoden der Bildverarbeitung; Geräte zum Erhalten, Analysieren und Verarbeiten von Bildern, d. h. eine Reihe von Werkzeugen und Methoden im Bereich Computer und maschinelles Sehen. Computer Vision ist eine allgemeine Reihe von Techniken, die es Computern ermöglichen, dreidimensionale oder zweidimensionale Objekte zu sehen und zu erkennen, sowohl technische als auch nichttechnische. Um mit Computer Vision zu arbeiten, sind digitale oder analoge Eingabe-Ausgabe-Geräte sowie Computernetzwerke und IP-Standortanalysatoren erforderlich, die den Produktionsprozess steuern und Informationen für betriebliche Entscheidungen in kürzester Zeit aufbereiten sollen.

Formulierung des Problems. Heute bleibt die Hauptaufgabe der entworfenen Bildverarbeitungssysteme die Erkennung, Erkennung, Identifizierung und Qualifizierung von Objekten mit potenziellem Risiko, die sich an einem beliebigen Ort in der Zone der betrieblichen Verantwortung des Komplexes befinden. Gegenwärtig existierende Softwareprodukte, die darauf abzielen, die aufgelisteten Probleme zu lösen, haben eine Anzahl von signifikanten Nachteilen, nämlich: signifikante Komplexität verbunden mit hoher Detailgenauigkeit optischer Bilder; hoher Stromverbrauch und ein ziemlich schmales Spektrum an Möglichkeiten. Eine Ausweitung der Aufgaben der Detektion von potentiellen Gefahrenobjekten auf den Bereich der Suche nach zufälligen Objekten in zufälligen Situationen, die sich an einem zufälligen Ort befinden, ist mit den verfügbaren Softwareprodukten auch unter Einbindung eines Supercomputers nicht möglich.

Ziel. Entwicklung eines universellen Programms zur Verarbeitung von Bildern einer optischen Quelle mit der Möglichkeit der Streaming-Datenanalyse, d. h. das Programm muss leicht und schnell sein, damit es auf einem kleinen Computergerät geschrieben werden kann.

Aufgaben:

  • Entwicklung eines mathematischen Modells des Programms;
  • Schreiben eines Programms;
  • Testen des Programms in einem Laborexperiment mit vollständiger Vorbereitung und Durchführung des Experiments;
  • Untersuchung der Möglichkeit der Anwendung des Programms in verwandten Tätigkeitsfeldern.

Die Relevanz des Programms wird bestimmt durch:

  • die hohen Kosten professioneller visueller Informationsverarbeitungsprogramme.

Analyse der Relevanz der Programmentwicklung.

  • das Fehlen von Bildverarbeitungsprogrammen auf dem Softwaremarkt mit der Ausgabe einer detaillierten Analyse der technischen Komponenten von Objekten;
  • ständig wachsende Anforderungen an die Qualität und Geschwindigkeit der Gewinnung visueller Informationen, wodurch die Nachfrage nach Bildverarbeitungsprogrammen stark ansteigt;
  • der bestehende Bedarf an leistungsstarken, zuverlässigen und einfachen Programmen aus Sicht des Benutzers;
  • Es besteht ein Bedarf an Programmen mit hoher Leistung und einfacher Steuerung, was in unserer Zeit äußerst schwierig zu erreichen ist. Ich habe zum Beispiel Adobe Photoshop genommen. Dieser Grafikeditor hat eine harmonische Kombination aus Funktionalität und Benutzerfreundlichkeit für einen normalen Benutzer, aber in diesem Programm ist es unmöglich, mit komplexen Bildverarbeitungswerkzeugen zu arbeiten (z. B. Bildanalyse durch Aufbau einer mathematischen Beziehung (Funktion) oder integrale Bildverarbeitung );
  • die hohen Kosten professioneller visueller Informationsverarbeitungsprogramme. Wenn die Software qualitativ hochwertig ist, dann ist der Preis dafür extrem hoch, bis hin zu den einzelnen Funktionen eines bestimmten Satzes von Programmen. Die folgende Grafik zeigt die Preis- / Qualitätsabhängigkeit einfacher Analoga des Programms.

Um die Lösung solcher Probleme zu vereinfachen, habe ich ein mathematisches Modell entwickelt und ein Computerprogramm für ein Bildanalysegerät geschrieben, das die einfachsten Transformationen der Originalbilder verwendet.
Das Programm arbeitet mit Transformationen wie Binarisierung, Helligkeit, Bildkontrast etc. Die Funktionsweise des Programms wird am Beispiel der Analyse supraleitender Materialien demonstriert.

Bei der Herstellung von Verbundsupraleitern auf Basis von Nb3Sn variieren das Volumenverhältnis von Bronze und Niob, die Größe und Anzahl der darin enthaltenen Fasern, die Gleichmäßigkeit ihrer Verteilung über den Querschnitt der Bronzematrix, das Vorhandensein von Diffusionsbarrieren und stabilisierenden Materialien. Bei einem gegebenen Volumenanteil von Niob im Leiter führt eine Erhöhung der Faserzahl jeweils zu einer Verringerung ihres Durchmessers. Dies führt zu einer merklichen Vergrößerung der Nb/Cu-Sn-Wechselwirkungsfläche, was das Wachstum der supraleitenden Phase stark beschleunigt. Eine solche Erhöhung der Menge der supraleitenden Phase mit einer Erhöhung der Anzahl von Fasern im Leiter stellt eine Erhöhung der kritischen Eigenschaften des Supraleiters sicher. In dieser Hinsicht ist es notwendig, ein Werkzeug zu haben, um den Volumenanteil der supraleitenden Phase im Endprodukt (zusammengesetzter Supraleiter) zu steuern.

Bei der Erstellung des Programms wurde berücksichtigt, wie wichtig es ist, die Materialien zu erforschen, aus denen supraleitende Kabel hergestellt werden, da bei einem falschen Verhältnis von Niob zu Bronze eine Explosion von Drähten und folglich menschliche Verluste und Geld möglich sind Kosten und Zeitverlust. Mit diesem Programm können Sie die Qualität der Drähte anhand der chemisch-physikalischen Analyse des Objekts bestimmen.

Blockdiagramm des Programms


Beschreibung der Forschungsphasen.

Stufe 1. Probenvorbereitung: Schneiden eines zusammengesetzten Supraleiters auf einer Elektroerosionsmaschine; Pressen der Probe in eine Kunststoffmatrix; Polieren der Probe in einen Spiegelzustand; Probenätzung zur Isolierung von Niobfasern auf einer Bronzematrix. Es wurden Proben von gepressten supraleitenden Verbundproben erhalten;

Stufe 2. Imaging: Erhalten von metallografischen Bildern mit einem Rasterelektronenmikroskop.

Stufe 3. Bildverarbeitung: Erstellung eines Tools zur Bestimmung des Volumenanteils der supraleitenden Phase in einem metallographischen Bild; ein Satz statistisch signifikanter Daten zu einem bestimmten Probentyp. Mathematische Modelle verschiedener Bildverarbeitungswerkzeuge wurden erstellt; eine Softwareentwicklung wurde erstellt, um den Volumenanteil der supraleitenden Phase abzuschätzen; das Programm wurde vereinfacht, indem mehrere mathematische Funktionen zu einer kombiniert wurden; der Mittelwert des Volumenanteils von Niobfasern in der Bronzematrix betrug 24,7 ± 0,1 %. Ein geringer Prozentsatz an Abweichung weist auf eine hohe Wiederholbarkeit der Struktur des Verbunddrahts hin.

Elektronenmikroskopische Aufnahme von zusammengesetzten Supraleitern

Bildverarbeitungsmethoden im Programm.

  • Identifikation- eine einzelne Instanz eines zu einer Klasse gehörenden Objekts erkannt wird.
  • Binarisierung- der Prozess der Umwandlung eines Farb- (oder Graustufen-) Bildes in ein zweifarbiges Schwarz-Weiß-Bild.
  • Segmentierung ist der Prozess der Aufteilung eines digitalen Bildes in mehrere Segmente (viele Pixel, auch Superpixel genannt).
  • Erosion- ein komplexer Prozess, bei dem ein Strukturelement alle Pixel des Bildes durchläuft. Wenn an irgendeiner Position jedes Einheitspixel des Strukturelements mit einem Einheitspixel des Binärbilds zusammenfällt, dann wird das zentrale Pixel des Strukturelements logisch zu dem entsprechenden Pixel des Ausgangsbilds hinzugefügt.
  • Erweiterung- Faltung eines Bildes oder eines ausgewählten Bereichs eines Bildes mit einem Kernel. Der Kern kann von beliebiger Form und Größe sein. In diesem Fall wird im Kernel eine einzige führende Position vergeben, die bei der Berechnung der Faltung mit dem aktuellen Pixel kombiniert wird.

Arbeitsformeln programmieren

Binarisierungsformel (Otsu-Methode):


Erosionsformel:

Dehnungsformel:

Schema der Dilatation und Erosion

Programmschnittstelle

Es gibt viele Dinge auf der Welt, denen das menschliche Auge einfach nicht folgen kann. Beispielsweise in der Fördertechnik entstehen Fehler gerade durch den Faktor Mensch. Ein Mensch ist einfach nicht in der Lage, Objekte nach mehreren Stunden Arbeit nüchtern zu beurteilen. Roboter sind dafür perfekt geeignet. Mit Hilfe maschinelles Sehen sie können das Produkt detailliert prüfen, mit dem Muster vergleichen und sofort über die Weiterverarbeitung des Produkts entscheiden.

Wie funktioniert maschinelles Sehen?

Maschinelles Sehen ist die Fähigkeit eines Computers zu „sehen“. Das Bildverarbeitungssystem verwendet eine oder mehrere Videokameras, einen Analog-Digital-Wandler (ADC) und eine digitale Signalverarbeitung (DSP). Die empfangenen Daten werden an einen Computer oder eine Robotersteuerung gesendet. In Bezug auf die Komplexität ähnelt Machine Vision der Spracherkennung.

Zwei wichtige Eigenschaften in einem solchen System sind Empfindlichkeit und Auflösung. Empfindlichkeit ist die Fähigkeit einer Maschine, bei schwachem Licht zu sehen oder schwache Impulse in einem Spektrum unsichtbarer Wellenlängen zu unterscheiden.Auflösung ist der Grad, in dem ein System Objekte unterscheidet. Empfindlichkeit und Auflösung sind voneinander abhängige Parameter. Mit zunehmender Empfindlichkeit nimmt die Auflösung tendenziell ab und umgekehrt, obwohl alle anderen Faktoren normalerweise gleich bleiben.

Das menschliche Auge kann elektromagnetische Wellen mit einer Wellenlänge von 390 bis 770 Nanometer unterscheiden. Bei Videokameras ist dieser Bereich viel größer als das. Beispielsweise gibt es Bildverarbeitungssysteme, die im Infrarot-, Ultraviolett- und Röntgenbereich sehen können.

Maschinelles Sehen wird in verschiedenen industriellen und medizinischen Bereichen eingesetzt:

    Komponentenanalyse

    Signaturidentifikation

    Optische Zeichenerkennung

    Handschrifterkennung

    Objekterkennung

    Mustererkennung

    Materialkontrolle

    Währungskontrolle

    Medizinische Bildanalyse


Maschinelles Sehen ist die Anwendung von Computer Vision in Industrie und Fertigung. Während Computer Vision eine allgemeine Reihe von Techniken ist, die Computern das Sehen ermöglichen, sind das Interessengebiet der maschinellen Bildverarbeitung als technischer Zweig digitale Eingabe-Ausgabe-Geräte und Computernetzwerke, die zur Steuerung von Fertigungsanlagen wie Roboterarmen oder -geräten entwickelt wurden Aussortieren fehlerhafter Produkte. Maschinelles Sehen ist ein Unterbereich des Ingenieurwesens, der sich auf Computer, Optik, Maschinenbau und industrielle Automatisierung bezieht. Eine der häufigsten Anwendungen der Bildverarbeitung ist die Inspektion von Industrieprodukten wie Halbleiterchips, Automobilen, Lebensmitteln und Pharmazeutika. Die Menschen, die an den Fließbändern arbeiteten, inspizierten Teile des Produkts und zogen Rückschlüsse auf die Verarbeitungsqualität. Bildverarbeitungssysteme verwenden zu diesem Zweck digitale und intelligente Kameras sowie Bildverarbeitungssoftware, um ähnliche Prüfungen durchzuführen.

Bildverarbeitungssysteme sind so programmiert, dass sie hochspezialisierte Aufgaben wie das Zählen von Objekten auf einem Förderband, das Lesen von Seriennummern oder die Suche nach Oberflächenfehlern ausführen. Die Vorteile eines auf Bildverarbeitung basierenden visuellen Inspektionssystems sind hohe Geschwindigkeit mit erhöhtem Umsatz, 24-Stunden-Betriebsfähigkeit und wiederholbare Messgenauigkeit. Auch der Vorteil von Maschinen gegenüber Menschen ist das Fehlen von Ermüdung, Krankheit oder Unaufmerksamkeit. Menschen haben jedoch für kurze Zeit eine feine Wahrnehmung und eine größere Flexibilität bei der Klassifizierung und Anpassung, um nach neuen Defekten zu suchen.

Computer können nicht so „sehen“, wie Menschen es können. Kameras sind nicht gleichwertig mit einem menschlichen Sehsystem, und während Menschen sich auf Vermutungen und Annahmen verlassen können, müssen maschinelle Sehsysteme „sehen“, indem sie einzelne Pixel in einem Bild untersuchen, sie verarbeiten und versuchen, Schlussfolgerungen aus einer Wissensbasis und einer Reihe von zu ziehen Funktionen wie eine Gerätemustererkennung. Obwohl einige maschinelle Bilderkennungsalgorithmen entwickelt wurden, um die menschliche visuelle Wahrnehmung nachzuahmen, wurde eine große Anzahl einzigartiger Techniken entwickelt, um Bilder zu verarbeiten und die relevanten Bildeigenschaften zu bestimmen.

Anwendung des maschinellen Sehens

Die Anwendung von Machine Vision ist vielfältig und umfasst verschiedene Tätigkeitsfelder, darunter, aber nicht beschränkt auf die folgenden:

    Große industrielle Produktion

    Beschleunigte Produktion einzigartiger Produkte

    Sicherheitssysteme im industriellen Umfeld

    Inspektion vorgefertigter Objekte (z. B. Qualitätskontrolle, Fehleruntersuchung)

    Visuelle Kontroll- und Verwaltungssysteme (Buchhaltung, Strichcode-Lesung)

    Steuerung automatisierter Fahrzeuge

    Qualitätskontrolle und Lebensmittelkontrolle

In der Automobilindustrie werden Bildverarbeitungssysteme eingesetzt, um Industrieroboter zu führen und lackierte Autooberflächen, Schweißnähte, Zylinderblöcke und viele andere Komponenten auf Fehler zu prüfen.

Habe Fragen?

Tippfehler melden

Text, der an unsere Redaktion gesendet werden soll: