[go: nahoru, domu]

DE102014211869A1 - Method and device for detecting at least one object in a mobile unit environment - Google Patents

Method and device for detecting at least one object in a mobile unit environment Download PDF

Info

Publication number
DE102014211869A1
DE102014211869A1 DE102014211869.7A DE102014211869A DE102014211869A1 DE 102014211869 A1 DE102014211869 A1 DE 102014211869A1 DE 102014211869 A DE102014211869 A DE 102014211869A DE 102014211869 A1 DE102014211869 A1 DE 102014211869A1
Authority
DE
Germany
Prior art keywords
image
mobile unit
camera system
environment
procedure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102014211869.7A
Other languages
German (de)
Other versions
DE102014211869B4 (en
Inventor
Stephan Simon
Jan Karl Warzelhan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102014211869.7A priority Critical patent/DE102014211869B4/en
Publication of DE102014211869A1 publication Critical patent/DE102014211869A1/en
Application granted granted Critical
Publication of DE102014211869B4 publication Critical patent/DE102014211869B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (200) zum Erkennen zumindest eines Objekts (160) in einer Umgebung (165) einer Mobileinheit (100), insbesondere eines Fahrzeugs und/oder eines Roboters. Das Verfahren (200) umfasst einen Schritt (210) des Einlesens eines das Objekt (160) enthaltenden ersten Bildes (400) der Umgebung (165) der Mobileinheit (100), das zu einem ersten Zeitpunkt erfasst wurde, wobei das erste Bild (400) von einem in oder an der Mobileinheit (100) angeordneten Kamerasystem (120) eingelesen wird. Ferner umfasst das Verfahren (200) einen Schritt (220) des Einlesens zumindest eines das Objekt (160) enthaltenden zweiten Bildes (410) der Umgebung (165) der Mobileinheit (100), das zu einem zweiten Zeitpunkt erfasst wurde, wobei das zweite Bild (410) von dem Kamerasystem (120) eingelesen wird und wobei die Mobileinheit (100) zwischen dem ersten und zweiten Zeitpunkt ruht oder um nicht mehr als eine Toleranzstrecke gegenüber einer Referenzposition (155) in der Umgebung (165) der Mobileinheit (100) bewegt wurde. Schließlich umfasst das Verfahren (200) einen Schritt (230) des Ermittelns des Objektes (160) in der Umgebung (165) der Mobileinheit (160) unter Verwendung des ersten (400) und zweiten (410) Bildes.The invention relates to a method (200) for detecting at least one object (160) in an environment (165) of a mobile unit (100), in particular of a vehicle and / or a robot. The method (200) comprises a step (210) of reading in a first image (400) containing the object (160) of the environment (165) of the mobile unit (100) that was acquired at a first time, wherein the first image (400 ) is read in by a camera system (120) arranged in or on the mobile unit (100). The method (200) further comprises a step (220) of reading in at least one second image (410) containing the object (160) of the environment (165) of the mobile unit (100) acquired at a second time, the second image (410) is read in by the camera system (120) and wherein the mobile unit (100) rests between the first and second times or does not move more than a tolerance distance from a reference position (155) in the environment (165) of the mobile unit (100) has been. Finally, the method (200) comprises a step (230) of determining the object (160) in the environment (165) of the mobile unit (160) using the first (400) and second (410) images.

Description

Stand der TechnikState of the art

Die vorliegende Erfindung bezieht sich auf ein Verfahren zum Erkennen zumindest eines Objekts in einer Umgebung einer Mobileinheit, auf eine entsprechende Vorrichtung sowie auf ein entsprechendes Computerprogramm.The present invention relates to a method for detecting at least one object in an environment of a mobile unit, to a corresponding device and to a corresponding computer program.

Das Anfahren eines Fahrzeugs (egal ob autonom, teilautonom oder von einem Fahrer gesteuert) kann mit Sensoren abgesichert werden, damit eine Kollision mit Hindernissen oder ein Überfahren von Hindernissen oder das Befahren von ungeeigneten Streckenabschnitten (Bordstein, Abgrund, usw.) vermieden wird.The start-up of a vehicle (whether autonomous, semi-autonomous or controlled by a driver) can be secured with sensors to avoid colliding with obstacles or driving over obstacles or driving on unsuitable sections (curb, precipice, etc.).

Am häufigsten werden heute Ultraschallsensoren verwendet, um nahe liegende Hindernisse zu detektieren und Kollisionen zu vermeiden, z. B. beim Rangieren des Fahrzeugs. Auch andere entfernungsmessende Sensoren, wie z. B. Stereo-Kamera, Short-Range-Radar, Laser-Scanner oder Time-of-Flight-Kamera sind für solche Aufgaben geeignet.Ultrasonic sensors are most commonly used today to detect nearby obstacles and avoid collisions, e.g. B. when maneuvering the vehicle. Other distance measuring sensors, such. As stereo camera, short-range radar, laser scanner or time-of-flight camera are suitable for such tasks.

Offenbarung der ErfindungDisclosure of the invention

Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Erkennen zumindest eines Objekts in einer Umgebung einer Mobileinheit, weiterhin eine Vorrichtung, die dieses Verfahren verwendet sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.Against this background, with the approach presented here, a method for recognizing at least one object in a mobile unit environment, furthermore a device which uses this method and finally a corresponding computer program according to the main claims are presented. Advantageous embodiments emerge from the respective subclaims and the following description.

Der hier vorgestellte Ansatz schafft ein Verfahren zum Erkennen von zumindest eines Objekts in einer Umgebung einer Mobileinheit, insbesondere eines Fahrzeugs und/oder eines Roboters, wobei das Verfahren die folgenden Schritte aufweist:

  • – Einlesen eines das Objekt enthaltenden ersten Bildes der Umgebung der Mobileinheit, das zu einem ersten Zeitpunkt erfasst wurde, wobei das erste Bild von einem in oder an der Mobileinheit angeordneten Kamerasystem eingelesen wird;
  • – Einlesen zumindest eines das Objekt enthaltenden zweiten Bildes der Umgebung der Mobileinheit, das zu einem zweiten Zeitpunkt erfasst wurde, wobei das zweite Bild von dem Kamerasystem eingelesen wird und wobei die Mobileinheit zwischen dem ersten und zweiten Zeitpunkt ruht oder um nicht mehr als eine Toleranzstrecke gegenüber einer Referenzposition in der Umgebung der Mobileinheit bewegt wurde; und
  • – Ermitteln des zumindest einen Objektes in der Umgebung der Mobileinheit unter Verwendung des ersten und zweiten Bildes.
The approach presented here creates a method for recognizing at least one object in an environment of a mobile unit, in particular a vehicle and / or a robot, the method having the following steps:
  • Reading in a first image of the environment of the mobile unit containing the object acquired at a first time, the first image being read in by a camera system arranged in or on the mobile unit;
  • Reading at least one second image containing the object of the environment of the mobile unit acquired at a second time, the second image being read in by the camera system and the mobile unit resting or not more than a tolerance distance between the first and second times a reference position has been moved in the vicinity of the mobile unit; and
  • Determining the at least one object in the environment of the mobile unit using the first and second images.

Unter einer Mobileinheit kann vorliegend eine Einheit oder ein Element verstanden werden, welches gegenüber anderen Objekten in der Umgebung beweglich ist. Beispielsweise kann eine solche Mobileinheit ein Fahrzeug oder eine Roboterkomponente sein, die beispielsweise relativ gegenüber einem Objekt (zum Beispiel einem vor dem Fahrzeug parkenden Fremdfahrzeug oder einem Randstein bzw. ein Hindernis in einem Bewegungsweg eines Roboterarms) beweglich ist oder bewegt werden kann. Unter einer Umgebung der Mobileinheit kann beispielsweise ein näherer räumlicher Bereich um die Mobileinheit verstanden werden, in der sich Objekte befinden können, mit denen beispielsweise bei einer Bewegung der Mobileinheit die Mobileinheit kollidieren kann und beschädigt werden würde. Unter einem Kamerasystem kann beispielsweise eine optische Einheit verstanden werden, die einen Bilderfassungssensor zur Bereitstellung des ersten und zweiten Bildes aufweist. Zusätzlich ist es denkbar, dass das Kamerasystem auch noch weitere optische Komponenten wie beispielsweise einen Spiegel oder ein Linsensystem aufweist, um eine Perspektive des Bilderfassungssensors zu verändern. Auf diese Weise kann mit dem Kamerasystem ein erstes und zweites Bild der Umgebung der Mobileinheit erfasst werden, aus denen nachfolgende Position des Objekts oder das Objekt selbst in der Umgebung der Mobileinheit ermittelt wird. Die Mobileinheit selbst wird zwischen dem ersten und zweiten Zeitpunkt nicht oder nur sehr wenig, d.h. innerhalb eines Toleranzbereichs gegenüber einer Referenzposition in der Umgebung der Mobileinheit bewegt. Beispielsweise kann ein solcher Toleranzbereich oder eine Toleranzstrecke kleiner 10 cm, bevorzugt kleiner als 1 cm, weiter bevorzugt kleiner als 5 mm gegenüber der Referenzposition in der Umgebung der Mobileinheit betragen. Eine solche Referenzposition kann beispielsweise ein Punkt auf einer Aufstandsfläche der Mobileinheit (beispielsweise der Fahrbahn bei dem Fahrzeug als Mobileinheit oder einem Hallenboden einem Roboter) sein.In the present case, a mobile unit can be understood to be a unit or an element which is movable in relation to other objects in the environment. For example, such a mobile unit may be a vehicle or a robot component that is movable or can be moved, for example, relative to an object (for example, a foreign vehicle parked in front of the vehicle or a curb or obstacle in a moving path of a robot arm). An environment of the mobile unit may, for example, be understood to mean a closer spatial area around the mobile unit in which there may be objects with which, for example, during a movement of the mobile unit the mobile unit could collide and would be damaged. By a camera system may be understood, for example, an optical unit having an image sensing sensor for providing the first and second images. In addition, it is conceivable that the camera system also has other optical components such as a mirror or a lens system to change a perspective of the image acquisition sensor. In this way, with the camera system, a first and second image of the environment of the mobile unit can be detected, from which subsequent position of the object or the object itself in the environment of the mobile unit is determined. The mobile unit itself will not, or only slightly, between the first and second times, i. within a tolerance range from a reference position in the environment of the mobile unit. By way of example, such a tolerance range or a tolerance range may be less than 10 cm, preferably less than 1 cm, more preferably less than 5 mm, relative to the reference position in the vicinity of the mobile unit. Such a reference position may be, for example, a point on a footprint of the mobile unit (for example, the lane of the vehicle as a mobile unit or a hall floor of a robot).

Der hier vorgestellte Ansatz basiert auf der Erkenntnis, dass bei einer ruhenden bzw. sich lediglich sehr geringfügig bewegenden Mobileinheit bereits kleine Änderungen der Perspektive des Kamerasystems auftreten, die jedoch ausreichen, um ein dreidimensionales Abbild des Objektes in der Umgebung der Mobileinheit zu bestimmen. Hieraus lässt sich dann beispielsweise auch die Position des Objektes in der Umgebung der Mobileinheit ermittelt. Für diese Ermittlung der Position des Objektes in der Umgebung der Mobileinheit können herkömmliche Algorithmen verwendet werden, wobei diese Algorithmen bereits sehr effizient sind und schon numerisch optimiert vorliegen. Auch kann für den hier vorgestellten Ansatz auf in modernen Fahrzeugen meist bereits serienmäßig verbaute Kamerasysteme zurückgegriffen werden, deren Bilder für die Auswertung gemäß dem hier vorgestellten Ansatz weiterverwendet werden können. Auf diese Weise lässt sich vorteilhaft eine weitere Nutzung von bereits verfügbaren Bilddaten mit lediglich geringen Kosten durch die Modifikation einer entsprechend ausgestalteten Auswertungseinheit erreichen.The approach presented here is based on the recognition that even a small or very slightly moving mobile unit already makes small changes in the perspective of the camera system, but these are sufficient to determine a three-dimensional image of the object in the surroundings of the mobile unit. From this, the position of the object in the environment of the mobile unit can then also be determined, for example. For this determination of the position of the object in the environment of the mobile unit, conventional algorithms can be used, these algorithms are already very efficient and already numerically optimized. Also can be used for the approach presented here on in modern vehicles usually already installed as standard camera systems whose images continue to be used for the evaluation according to the approach presented here can be. In this way, it is advantageously possible to achieve further use of already available image data with only low costs by modifying a correspondingly designed evaluation unit.

Günstig ist eine Ausführungsform des hier vorgestellten Ansatzes, bei dem im Schritt des Einlesens des zweiten Bildes ein Bild als zweites Bild eingelesen wird, welches aus einer anderen Position des Kamerasystems oder zumindest einer Komponente des Kamerasystems in Bezug zu zumindest einem Element der Mobileinheit aufgenommen wurde, als das erste Bild. Unter einer solchen anderen Position, unter der das zweite Bild in Bezug auf das erste Bild aufgenommen wurde, kann beispielsweise verstanden werden, das ein Perspektivwechsel der Blickrichtung des Kamerasystems (bei ruhender Mobileinheit) auf die Umgebung der Mobileinheit erfolgt ist. Beispielsweise kann ein solcher Perspektivwechsel durch Veränderung der Position des Kamerasystems oder zumindest einer Komponente des Kamerasystems in Bezug auf eine Komponente der Mobileinheit erfolgt sein. Eine solche Ausführungsform des hier vorgestellten Ansatzes bietet den Vorteil einer besonders genauen Möglichkeit zur Ermittlung der Position des Objekts in der Umgebung der Mobileinheit.An embodiment of the approach presented here is expedient in which, in the step of reading in the second image, an image is read in as a second image which was taken from another position of the camera system or at least one component of the camera system with respect to at least one element of the mobile unit, as the first picture. Under such a different position, under which the second image was taken with respect to the first image, it can be understood, for example, that a change of perspective of the viewing direction of the camera system (with the mobile unit resting) on the environment of the mobile unit. For example, such a change of perspective may have occurred by changing the position of the camera system or at least one component of the camera system with respect to a component of the mobile unit. Such an embodiment of the approach presented here offers the advantage of a particularly accurate possibility for determining the position of the object in the environment of the mobile unit.

Von Vorteil ist ferner eine Ausführungsform des hier vorgestellten Ansatzes, bei der in den Schritten des Einlesens des ersten Bildes und des Einlesen des zweiten Bildes das erste und zweite Bild von einem monokularen Kamerasystem eingelesen werden. Eine solche Ausführungsform des hier vorgestellten Ansatzes ermöglicht die Verwendung von Bildern eines der kostengünstigen Kamerasystems, wobei entsprechend ausgestaltete Bildverarbeitungsalgorithmen, die bereits bekannt und technisch ausgereift sind, verwendet werden können, um sehr einfach die Position des Objekts in der Umgebung der Mobileinheit zu ermitteln.Another advantage is an embodiment of the approach presented here, in which the first and second image are read in by a monocular camera system in the steps of reading in the first image and reading in the second image. Such an embodiment of the approach presented here allows the use of images of one of the low-cost camera systems, whereby appropriately designed image processing algorithms, which are already known and technically mature, can be used to easily determine the position of the object in the environment of the mobile unit.

Denkbar ist ferner eine Ausführungsform des hier vorgestellten Ansatzes, bei der im Schritt des Einlesens des zweiten Bildes als zweites Bild ein Bild eingelesen wird, das bei einer Relativgeschwindigkeit zwischen der Mobileinheit und dem Referenzpunkt von Null Stundenkilometern eingelesen wird.Also conceivable is an embodiment of the approach presented here, in which an image is read in as a second image in the step of reading in the second image, which image is read in at a relative speed between the mobile unit and the reference point of zero hourly kilometers.

Auch kann gemäß einer weiteren Ausführungsform des hier vorgestellten Ansatzes im Schritt des Einlesens des zweiten Bildes das als zweites Bild ein Bild eingelesen werden, das von einem von der Mobileinheit abgeklappten Element am zweiten Zeitpunkt erfasst wurde. Ein solches abgeklapptes Element kann beispielsweise bei dem Fahrzeug als Mobileinheit eine Türe oder ein über die Fahrzeugkontur hinausragendes Element (beispielsweise ein Spiegel) oder einem Roboter als Mobileinheit Roboterarm sein. Eine solche Ausführungsform des hier vorgestellten Ansatzes bietet den Vorteil, dass durch die Bewegung des klappbaren Elements eine deutliche Veränderung der Blickrichtung des Kamerasystems zwischen der Aufnahme des ersten Bildes und des zweiten Bildes erfolgen kann, sodass aus dem ersten und zweiten Bild sehr präzise die Position des Objekts in der Umgebung der Mobileinheit ermittelt werden kann.Also, according to a further embodiment of the approach presented here, in the step of reading in the second image, the second image is an image which was acquired by an element folded away from the mobile unit at the second time. Such a folded-down element may, for example, be a door or a vehicle element protruding element (for example a mirror) or a robot as a mobile unit robot arm in the case of the vehicle as a mobile unit. Such an embodiment of the approach presented here has the advantage that the movement of the hinged element can significantly change the viewing direction of the camera system between the recording of the first image and the second image, so that the position of the first and second image is very precisely Object can be determined in the environment of the mobile unit.

Günstig ist ferner eine Ausführungsform des hier vorgestellten Ansatzes, mit einem Schritt des Bewegens zumindest eines Teils des Kamerasystems in Bezug auf zumindest ein Element der Mobileinheit vor dem Schritt des Einlesens des zweiten Bildes. Denkbar ist die beispielsweise die aktive Veränderung der Position des Kamerasystems, um eine möglichst große Änderung des Blickwinkels des Kamerasystems zwischen dem ersten Bild und dem zweiten Bild zu erreichen. Auf diese Weise kann ebenfalls erreicht werden, dass aus dem ersten und zweiten Bild eine möglichst genaue Ermittlung der Position des Objekts im Umfeld der Mobileinheit möglich wird.Also advantageous is an embodiment of the approach presented here, comprising a step of moving at least a part of the camera system with respect to at least one element of the mobile unit before the step of reading in the second image. It is conceivable, for example, to actively change the position of the camera system in order to achieve the greatest possible change in the viewing angle of the camera system between the first image and the second image. In this way it can also be achieved that the most accurate possible determination of the position of the object in the environment of the mobile unit is possible from the first and second image.

Insbesondere kann gemäß einer Ausführungsform des hier vorgestellten Ansatzes im Schritt des Bewegens ein Spiegel des Kamerasystems in Bezug auf eine Kamera des Kamerasystems bewegt werden. Eine solche Ausführungsform des hier vorgestellten Ansatzes bietet den Vorteil, dass lediglich ein kleines Element des Kamerasystems zur Erreichung eines Blickrichtungswechsels des Kamerasystems zwischen der Aufnahme des ersten Bildes und der Aufnahme des zweiten Bildes bewegt werden braucht. Dies führt zu einer Verbesserung der Robustheit, der Betriebskosten sowie der Herstellungskosten eines solchen Kamerasystems ohne nennenswerte Einbuße bei der Präzision der Ermittlung der Position des Objekts im Umfeld der Mobileinheit.In particular, according to an embodiment of the approach presented here, in the step of moving a mirror of the camera system with respect to a camera of the camera system can be moved. Such an embodiment of the approach presented here has the advantage that only a small element of the camera system needs to be moved between the recording of the first image and the recording of the second image in order to achieve a change in the viewing direction of the camera system. This leads to an improvement in the robustness, the operating costs and the manufacturing costs of such a camera system without significant loss of precision in determining the position of the object in the environment of the mobile unit.

Auch kann gemäß einer weiteren Ausführungsform des hier vorgestellten Ansatzes im Schritt des Einlesens des ersten und/oder zweiten Bildes das betreffende Bild von einem Kamerasystem eingelesen werden, das zumindest ein Bild zur Verwertung in einer weiteren Fahrerassistenzfunktion bereitstellt. Eine solche Fahrerassistenzfunktion kann beispielsweise eine Spurhaltefunktion oder eine Lichtsteuerfunktion zur Steuerung des Fahrzeuglichts auf der Basis eines optischen Bildes des Kamerasystems sein. Eine solche Ausführungsform des hier vorgestellten Ansatzes bietet den Vorteil der Mehrfachnutzung von Bildern des Kamerasystems, wodurch sich preisgünstig eine weitere Komfortfunktion mit lediglich geringem Zusatzaufwand realisieren lässt.Also, according to a further embodiment of the approach presented here, in the step of reading in the first and / or second image, the relevant image can be read by a camera system which provides at least one image for utilization in another driver assistance function. Such a driver assistance function may be, for example, a lane keeping function or a light control function for controlling the vehicle light on the basis of an optical image of the camera system. Such an embodiment of the approach presented here has the advantage of multiple use of images of the camera system, which can be inexpensively another comfort feature with little additional effort can be realized.

Denkbar ist ferner eine Ausführungsform des hier vorgestellten Ansatzes, bei dem der Schritt des Einlesens des zweiten Bildes ansprechend auf ein Erfassungs- und/oder Einlesesignal erfolgt, insbesondere wobei das Erfassungs- und/oder Einlesesignal eine externe physikalische Größe über eine bevorstehende Nutzung der Mobileinheit repräsentiert. Ein solches Erfassungssignal oder Einlesesignal kann beispielsweise ein Signal sein, dass eine Information repräsentiert, die angibt, dass das zweite Bild von dem Kamerasystem erfasst wurde. Auch kann das Erfassungssignal oder Einlesesignal ein Signal sein, welches dem Kamerasystem signalisiert, das zweite Bild zu erfassen und bereitzustellen. Das Erfassungssignal oder Einlesesignal kann beispielsweise von einem Sensor ausgelöst werden, der eine Zustandsänderung oder eine physikalische Einwirkung auf die Mobileinheit erfassen kann. Beispielsweise kann ein solcher Sensor das Öffnen einer Türe oder Klappe der Mobileinheit (insbesondere wenn der Mobileinheit ein Fahrzeug ist) erfassen und das entsprechende Erfassungssignal oder Einlesesignal generieren. In diesem Fall kann davon ausgegangen werden, dass durch das Öffnen der Türe oder Klappe der mobilen Einheit eine geringfügige Perspektivänderung des Kamerasystems erfolgt ist, die ausreicht, um das erste Bild und das zweite Bild unter unterschiedlichen Perspektiven aufzunehmen, so dass aus dem ersten und zweiten Bild eine Bestimmung des Objektes oder der räumlichen Position des Objekts in der Umgebung der Mobileinheit möglich ist.Also conceivable is an embodiment of the approach presented here, in which the step of reading the second image in response to a Detection and / or read-in signal takes place, in particular wherein the detection and / or read-in signal represents an external physical quantity about an imminent use of the mobile unit. Such a detection signal or read-in signal may, for example, be a signal representing information indicating that the second image has been acquired by the camera system. Also, the detection signal or read-in signal may be a signal that signals the camera system to capture and provide the second image. The detection signal or read-in signal can be triggered, for example, by a sensor which can detect a state change or a physical action on the mobile unit. For example, such a sensor may detect the opening of a door or flap of the mobile unit (especially if the mobile unit is a vehicle) and generate the corresponding detection signal or read-in signal. In this case, it can be assumed that by opening the door or flap of the mobile unit, a slight change in the perspective of the camera system has taken place, which is sufficient to record the first image and the second image from different perspectives, so that the first and second Image is a determination of the object or the spatial position of the object in the environment of the mobile unit is possible.

Gemäß einer weiteren Ausführungsform des hier vorgestellten Ansatzes kann das Verfahren einen Schritt des Steuerns einer Bewegung der Mobileinheit unter Verwendung des ermittelten Objektes und/oder der ermittelten Position des Objektes in der Umgebung der Mobileinheit aufweisen. Eine solche Ausführungsform des hier vorgestellten Ansatzes bietet den Vorteil einer frühzeitigen Warnung oder einem frühzeitigen Steuereingriff bei der Bewegung der Mobileinheit, um Beschädigungen der Mobileinheit und/oder des Objekts möglichst zu verhindern.According to another embodiment of the approach presented here, the method may comprise a step of controlling a movement of the mobile unit using the determined object and / or the determined position of the object in the environment of the mobile unit. Such an embodiment of the approach presented here offers the advantage of an early warning or an early control intervention in the movement of the mobile unit in order to prevent damage to the mobile unit and / or the object as much as possible.

Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden. The approach presented here also creates a device that is designed to perform the steps of a variant of a method presented here in appropriate facilities to drive or implement. Also by this embodiment of the invention in the form of a device, the object underlying the invention can be solved quickly and efficiently.

Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.In the present case, a device can be understood as meaning an electrical device which processes sensor signals and outputs control and / or data signals in dependence thereon. The device may have an interface, which may be formed in hardware and / or software. In the case of a hardware-based embodiment, the interfaces can be part of a so-called system ASIC, for example, which contains a wide variety of functions of the device. However, it is also possible that the interfaces are their own integrated circuits or at least partially consist of discrete components. In a software training, the interfaces may be software modules that are present, for example, on a microcontroller in addition to other software modules.

Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.Also of advantage is a computer program product or computer program with program code which can be stored on a machine-readable carrier or storage medium such as a semiconductor memory, a hard disk memory or an optical memory and for carrying out, implementing and / or controlling the steps of the method according to one of the embodiments described above is used, especially when the program product or program is executed on a computer or a device.

Der hier vorgestellte Ansatz wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:The approach presented here will be explained in more detail below with reference to the accompanying drawings. Show it:

1 ein Blockschaltbild eines Fahrzeugs als Mobileinheit mit einer Vorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; 1 a block diagram of a vehicle as a mobile unit with a device according to an embodiment of the present invention;

2 ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; 2 a flowchart of a method according to an embodiment of the present invention;

3 eine perspektive Darstellung eines im Frontbereich verbauten Kamerasystems sowie die Ermittlung einer verstellten Höheneinstellung des Fahrzeugs vor der Erfassung des zweiten Bildes; 3 a perspective view of a built-in front camera system and the determination of an adjusted height adjustment of the vehicle before the detection of the second image;

4 mehrere Bilder, aus denen das Objekt im Umfeld des Fahrzeugs als Mobileinheit ermittelt werden kann; und 4 a plurality of images from which the object in the vicinity of the vehicle can be determined as a mobile unit; and

5 ein Bild, in dem die Veränderungen von korrespondierenden Bildpunktgen in zwei unterschiedlichen Bildern dargestellt sind, die zur Ermittlung des Objektes verwendbar sind. 5 an image in which the changes of corresponding pixel locations are shown in two different images, which are useful for determining the object.

In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.In the following description of favorable embodiments of the present invention, the same or similar reference numerals are used for the elements shown in the various figures and similar acting, with a repeated description of these elements is omitted.

1 zeigt ein Fahrzeug als Mobileinheit 100, das eine Vorrichtung 110 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung aufweist. Die Vorrichtung 110 ist mit einem Kamerasystem 120 verbunden, dessen Blickrichtung beispielsweise in eine Vorwärtsfahrtrichtung 130 des Fahrzeugs gerichtet ist. Die Vorrichtung 110 zum Ermitteln des Objektes oder einer Position des Objekts im Umfeld des Fahrzeugs 100, eine Schnittstelle 135 zum Einlesen des von dem Kamerasystem 120 bereitgestellten ersten und zweiten Bilder, sowie eine Einheit 140 zum Ermitteln des Objektes und/oder der Position des Objekts im Umfeld des Fahrzeugs unter Verwendung der über die Schnittstelle 135 eingelesenen Bilder. 1 shows a vehicle as a mobile unit 100 that a device 110 according to an embodiment of the present invention. The device 110 is with a camera system 120 connected, the viewing direction, for example, in a forward direction 130 of the vehicle is directed. The device 110 for determining the object or a position of the object in the environment of the vehicle 100 , an interface 135 for reading in from the camera system 120 provided first and second pictures, as well as a unit 140 for determining the object and / or the position of the object in the environment of the vehicle using the via the interface 135 read in pictures.

Betritt beispielsweise ein Insasse über eine (linke) Tür 145 das Fahrzeug 100, wird durch die Federlagerung das Fahrzeug 100 beim Hinsetzen des Insassen auf einen Fahrzeugsitz 150 das Fahrzeug 100 sich auf der linken Seite absenken, ohne dass es beispielsweise seine Position zu einem Referenzpunkt 155, der beispielsweise einen Abschnitt einer Fahrbahn als Aufstandsfläche des Fahrzeugs 100 bildet, wesentlich verändert wird. Der Insasse wird daher den Fahrzeugsitz 150 in einem stillstehenden Fahrzeug 100 besetzen. Durch das Absenken des Fahrzeugs 100 auf der linken Seite beim Einsteigen des Insassen durch die Fahrzeugtüre 140 wird somit das Kamerasystem 120 minimal nach links bzw. nach unten ausgelegt, das durch die gestrichelte Abbildung des Kamerasystems 120 in der 1 dargestellt ist. Dabei kann vom Kamerasystem 120 zu einem ersten Zeitpunkt, in dem sich das Kamerasystem 120 in der durchgezogenen rechten Darstellung aus 1 befindet, ein erstes Bild an die Schnittstelle 135 geliefert werden, in dem ein Objekt 160 im Umfeld 165 des Fahrzeugs 100 abgebildet ist. Zu einem zweiten Zeitpunkt, nachdem ein Fahrzeuginsasse den Fahrzeugsitz 150 durch die Fahrzeugtür 125 belegt hat, kann vom (geringfügig bewegten) Kamerasystem 120 das zweite Bild der Schnittstelle 135 bereitgestellt werden, in dem ebenfalls das Objekt 160 enthalten ist. Das Objekt 160 ist dabei in den beiden Bildern an unterschiedlichen Stellen enthalten, die durch die unterschiedlichen Blickrichtungen des Kamerasystems 120 zum ersten Zeitpunkt bzw. zum zweiten Zeitpunkt bedient sind. In der Einheit zum Ermitteln kann nun aus dem zumindest ersten und zweiten Bild die Stelle lokalisiert werden, an der das Objekt 160 entsprechend abgebildet wurde, um aus dieser Information mit entsprechend ausgestalteten Algorithmen das Objekte und/oder die Position des Objekts 160 in der Umgebung 165 des Fahrzeugs 100 zu bestimmen oder zu ermitteln.For example, an occupant enters via a (left) door 145 the vehicle 100 , is the spring bearing the vehicle 100 when sitting down the occupant on a vehicle seat 150 the vehicle 100 Lower yourself on the left side, without, for example, its position to a reference point 155 for example, a section of a roadway as a footprint of the vehicle 100 forms, is significantly changed. The occupant therefore becomes the vehicle seat 150 in a stationary vehicle 100 occupy. By lowering the vehicle 100 on the left side when boarding the occupant through the vehicle door 140 thus becomes the camera system 120 minimally leftward or downwards, as indicated by the dashed line of the camera system 120 in the 1 is shown. It can from the camera system 120 at a first time, in which the camera system 120 in the solid right representation 1 is, a first image to the interface 135 be delivered in which an object 160 in the environment 165 of the vehicle 100 is shown. At a second time after a vehicle occupant the vehicle seat 150 through the vehicle door 125 occupied by the (slightly moving) camera system 120 the second image of the interface 135 be provided, in which also the object 160 is included. The object 160 is contained in the two images in different places, which are due to the different directions of the camera system 120 are served at the first time or at the second time. In the unit for determining, it is then possible from the at least first and second image to locate the location at which the object is located 160 has been mapped accordingly, from this information with appropriately designed algorithms, the objects and / or the position of the object 160 in the neighborhood 165 of the vehicle 100 to determine or determine.

Um einen Zeitpunkt des Einstiegs des Insassen in das Fahrzeug 100 bzw. auf den Fahrersitz erkennen zu können, kann beispielsweise ein Sensor 167 vorgesehen sein, der ein Signal 168 über die Belegung des Fahrer- oder Fahrzeugsitzes 150 gibt. Dieses Signal 168 kann dann als Auslösesignal zur Erfassung des zweiten Bildes durch das Kamerasystem 120 oder als Einlesesignal zur Verarbeitung des zweiten Bildes in der Vorrichtung zum Erkennen verwendet werden. Auf diese Weise kann sichergestellt werden, dass das zweite Bild vorteilhafterweise zu einem Zeitpunkt erfasst wurde, bei dem eine kleine Veränderung der Perspektive der Kamera des Kamerasystems 120 erfolgt ist. Dies ermöglicht eine deutlich sichere Erkennung des Objektes 160 im Umfeld 165 des Fahrzeugs 100.At a time of entry of the occupant into the vehicle 100 or to be able to recognize the driver's seat, for example, a sensor 167 be provided, which is a signal 168 about the occupancy of the driver or vehicle seat 150 gives. This signal 168 can then as a trigger signal for detecting the second image by the camera system 120 or used as a read-in signal for processing the second image in the device for detecting. In this way it can be ensured that the second image has advantageously been detected at a point in time during which a small change in the perspective of the camera of the camera system 120 is done. This allows a clearly secure recognition of the object 160 in the environment 165 of the vehicle 100 ,

Analog ist es auch denkbar, dass das Kamerasystem 120 nicht wie in dem in 1 dargestellten Ausführungsbeispiel in einem Fahrzeug 100 angeordnet ist, sondern an einem Roboterarm, der als Objekt 160 ein Hindernis in einem Bewegungsweg des Roboterarms erkennen kann. Der nachfolgend näher beschriebene Ansatz lässt sich dabei analog verwenden, unabhängig ob somit eine Position eines Objekts 160 in einer Umgebung 165 eines Fahrzeugs 100 oder einer (in 1 nicht dargestellten) Umgebung eines Roboters erkannt werden soll. In diesem Sinn ist auch der Oberbegriff Mobileinheit zu verstehen, der eine Einheit bezeichnen soll, die selbst bewegt werden kann, wie das Fahrzeug 100 oder der Roboter.Analogously, it is also conceivable that the camera system 120 not like in the 1 illustrated embodiment in a vehicle 100 is arranged, but on a robotic arm, as an object 160 can detect an obstacle in a path of movement of the robot arm. The approach described in more detail below can be used analogously, regardless of whether a position of an object 160 in an environment 165 of a vehicle 100 or one (in 1 not shown) environment of a robot to be detected. In this sense, the generic term mobile unit is to be understood, which is intended to designate a unit which itself can be moved, such as the vehicle 100 or the robot.

2 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels des hier vorgestellten Ansatzes als Verfahren 200 zum Erkennen zumindest eines Objekts und/oder einer Position des Objektes in einer Umgebung einer Mobileinheit, insbesondere eines Fahrzeugs und/oder eines Roboters. Das Verfahren 200 umfasst einen Schritt 210 des Einlesen eines das Objekt enthaltenden ersten Bildes der Umgebung der Mobileinheit, das zu einem ersten Zeitpunkt erfasst wurde, wobei das erste Bild von einem in oder an der Mobileinheit angeordneten Kamerasystem eingelesen wird. Ferner umfasst das Verfahren 200 einen Schritt 220 des Einlesens zumindest eines das Objekt enthaltenden zweiten Bildes der Umgebung der Mobileinheit, das zu einem zweiten Zeitpunkt erfasst wurde, wobei das zweite Bild von dem Kamerasystem eingelesen wird und wobei die Mobileinheit zwischen dem ersten und zweiten Zeitpunkt ruht oder um nicht mehr als eine Toleranzstrecke gegenüber einer Referenzposition in der Umgebung der Mobileinheit bewegt wurde. Schließlich umfasst das Verfahren 200 einen Schritt 230 des Ermittelns des Objektes und/oder der Position des Objektes in der Umgebung der Mobileinheit unter Verwendung des ersten und zweiten Bildes. 2 shows a flowchart of an embodiment of the approach presented here as a method 200 for recognizing at least one object and / or one position of the object in an environment of a mobile unit, in particular of a vehicle and / or a robot. The procedure 200 includes a step 210 reading in a first image containing the object of the environment of the mobile unit that was acquired at a first time, wherein the first image is read in by a camera system arranged in or on the mobile unit. Furthermore, the method comprises 200 one step 220 reading in at least one second image containing the object of the environment of the mobile unit acquired at a second time, the second image being read by the camera system and the mobile unit resting between the first and second times or by no more than a tolerance distance a reference position has been moved in the vicinity of the mobile unit. Finally, the process includes 200 one step 230 determining the object and / or the position of the object in the environment of the mobile unit using the first and second images.

Die Aufgabe des hier vorgestellten Ansatzes kann in der Hinderniserkennung oder auch Vermessung der Umgebung während des Stillstands eines Fahrzeuges oder auch Roboters gesehen werden. Dazu reicht für das vorgeschlagene Verfahren eine einzige monokulare Kamera 120 aus, die als solche eigentlich nicht für eine Vermessung der Umgebung 165 während des Stillstands des Fahrzeugs 100 oder allgemein der Mobileinheit geeignet ist. Die Vermessung der Umgebung 165 geschieht im Sichtbereich der Kamera 120. Eine Anwendung des Verfahrens 200 auf mehrere/ andere Kameras 120 am/im Fahrzeug 100 oder Roboter ist natürlich möglich und würde den Erfassungsbereich vergrößern.The object of the approach presented here can be seen in the obstacle detection or even measurement of the environment during the standstill of a vehicle or robot. For this purpose, a single monocular camera is sufficient for the proposed method 120 which, as such, is not intended to measure the environment 165 during the stoppage of the vehicle 100 or in general the mobile unit is suitable. The survey of the environment 165 happens in the field of view of the camera 120 , An application of the method 200 on several / other cameras 120 on / in vehicle 100 or robot is of course possible and would increase the detection area.

Die Erfassung der Umgebung 165 während des Stillstandes des Fahrzeugs 100 ist nützlich, da die Entscheidung, ob und in welche Richtung hindernisfreie Bewegung möglich ist, vor der eigentlichen Bewegung des Fahrzeuges 100 / Roboters erfolgt und somit nicht korrigiert werden braucht. Dies drückt ein intelligenteres Verhalten für gegebenenfalls teilautonome oder autonome Fahrzeuge 100 (insbesondere beim Anfahren) aus. Des Weiteren ist eine Aufgabe des hier vorgestellten Ansatzes, bestehende Sensoren wie das Kamerasystem 120 und deren Infrastruktur zu nutzen. Dies betrifft bereits installierte Kameras 120 (z. B. für Fahrerassistenz- oder Rundumsicht-Zwecke), die heutzutage vorwiegend monokular sind, sowie deren Leitungen, Steuergeräte 110, Algorithmen, usw.. Hierdurch wird ein Mehrwert generiert bzw. kostengünstige Gesamtlösungen ermöglicht.The capture of the environment 165 during the stoppage of the vehicle 100 is useful because the decision as to whether and in what direction obstacle-free movement is possible before the actual movement of the vehicle 100 / Robot takes place and thus does not need to be corrected. This expresses a smarter behavior for possibly semi-autonomous or autonomous vehicles 100 (especially when starting) off. Furthermore, an object of the approach presented here, existing sensors such as the camera system 120 and their infrastructure. This concerns already installed cameras 120 (eg for driver assistance or all-round purposes), which today are predominantly monocular, as well as their lines, control units 110 , Algorithms, etc .. This generates added value or enables cost-effective overall solutions.

Mit einer monokularen Kamera 120, die sich nicht bezüglich ihrer Umgebung 165 bewegt, ist es im Allgemeinen nicht möglich, eine dreidimensionale Vermessung des Umfelds vorzunehmen. Auch eine Bewegung der Kamera 120 um sich selbst – genauer: um ihr Projektionszentrum – ermöglicht keine dreidimensionale Vermessung des Umfelds 165.With a monocular camera 120 who are not concerned about their environment 165 moving, it is generally not possible to make a three-dimensional survey of the environment. Also a movement of the camera 120 around itself - more precisely: around its projection center - does not allow a three-dimensional measurement of the environment 165 ,

Erst wenn die Bewegung der monokularen Kamera 120 auch einen Translationsanteil aufweist, wird eine dreidimensionale Vermessung des Umfelds 165 möglich. Leider kann die dreidimensionale Information im Stillstand nicht gewonnen werden. Somit stehen keine Informationen über mögliche Hindernisse oder ungeeignete Streckenabschnitte zur Verfügung. Der vorliegende Ansatz löst dieses Problem insbesondere durch Nutzung von (kleinen oder kleinsten) Bewegungen der Kamera 120, die einen translatorischen Anteil haben. Diese Bewegungen können entweder von „passiver“ oder „gezielter“ Art sein.Only when the movement of the monocular camera 120 also has a translation portion, is a three-dimensional measurement of the environment 165 possible. Unfortunately, the three-dimensional information can not be obtained at standstill. Thus, no information about possible obstacles or unsuitable sections of the route is available. The present approach solves this problem in particular by using (small or smallest) movements of the camera 120 that have a translatory component. These movements can be either of a "passive" or "targeted" kind.

Unter „gezielter“ Bewegung soll dabei verstanden werden, dass die Bewegung gezielt dazu ausgeführt wird, um mit der monokularen Kamera 120 eine dreidimensionale Vermessung durchzuführen. Unter „passiver“ Bewegung soll dagegen verstanden werden, dass die Bewegung schon aus anderen Gründen stattfindet und für das Verfahren ausgenutzt wird.By "targeted" movement is to be understood that the movement is specifically carried out to the monocular camera 120 to carry out a three-dimensional survey. By "passive" movement, on the other hand, it should be understood that the movement already takes place for other reasons and is used for the procedure.

Beispiele für mögliche Positionen der Kamera 120, an denen leicht translatorische Anteile der Bewegungen ausgenutzt werden können (ohne Anspruch auf Vollständigkeit):

  • – Jede Stelle an der Karosserie oder hinter Scheiben, von der aus die Umgebung 165 beobachtet wird, während die Karosserie sich im Stillstand (wenn auch nur leicht) bewegt bzw. bewegt wird.
  • – Im Außenspiegelgehäuse bzw. am Außenspiegel, wenn eine automatische Anklappfunktion oder sonstige Verstellfunktion vorhanden ist.
  • – In/an einer Tür oder im Außenspiegelgehäuse (auch ohne automatische Anklappfunktion), mit Nutzung der Bewegung der Tür und/oder Karosserie beim Ein-/Aussteigen.
  • – Im Scheinwerfergehäuse unter Nutzung von beweglichen Teilen, z. B. für Kurvenlicht oder Leuchtweitensteuerung.
  • – In/an der Heckklappe bzw. Kofferraumklappe, mit Nutzung der Bewegung beim automatischen oder manuellen Öffnen oder Schließen.
Examples of possible positions of the camera 120 , in which easily translational portions of the movements can be exploited (without claim to completeness):
  • - Any place on the body or behind discs, from which the environment 165 is observed while the body is moving (even slightly) at standstill.
  • - In the exterior mirror housing or on the exterior mirror if an automatic folding function or other adjustment function is available.
  • - In / on a door or in the exterior mirror housing (also without automatic folding function), with use of the movement of the door and / or body when entering / exiting.
  • - In the headlight housing using moving parts, eg. B. for cornering lights or headlight range control.
  • - In / on the tailgate or trunk lid, using the movement during automatic or manual opening or closing.

Der hier vorgestellte Ansatz weist mehrere Vorteile auf. Hierzu zählen insbesondere:

  • – Da nur monokulare Kamera(s) notwendig ist (sind) – und kostengünstiger als z. B. Stereokamera oder andere Sensoren.
  • – Mehrfachnutzen von bestehenden Sensoren, die vorwiegend auf monokularer Basis sind (z. B. Kameras 120 für Fahrerassistenz, Rundumsicht).
  • Vermessung der Umgebung 165 während des Stillstands des Fahrzeuges.
  • – Mehrfachnutzung der vorhandenen Algorithmen (z. B. optischer Fluss) und Systeme zur Bildauswertung, die während des Fahrzeugstillstands ungenutzte Kapazitäten bereitstellen können.
  • – Die gewonnenen Umgebungsinformationen können nicht nur für die Fortbewegung genutzt werden, sondern auch, um weitere Funktionalität im Fahrzeug anzubieten, z. B. das Blockieren von Türen oder Heckklappen während des Öffnens, falls ein Gegenstand im Weg ist.
The approach presented here has several advantages. These include in particular:
  • - Since only monocular camera (s) is necessary (are) - and cheaper than z. B. stereo camera or other sensors.
  • - Multiple benefits of existing sensors, which are predominantly on a monocular basis (eg cameras 120 for driver assistance, all-round visibility).
  • - Surveying the environment 165 during the stoppage of the vehicle.
  • - Multiple use of existing algorithms (eg optical flow) and image analysis systems that can provide idle capacity during vehicle standstill.
  • The obtained environmental information can be used not only for locomotion, but also to offer additional functionality in the vehicle, eg. As the blocking of doors or tailgates during opening, if an object is in the way.

Verfahren zur dreidimensionalen Vermessung einer Szene mit einer relativ zur Szene bewegten monokularen Kamera sind dem Fachmann bekannt. In der Literatur ist dieses Thema insbesondere unter dem Begriff „Structure from Motion (SfM)“ zu finden. Ein bekanntes Fachbuch auf diesem Gebiet ist: Richard Hartley and Andrew Zisserman.-Multiple View Geometry in Computer Vision. Cambridge University Press. Second edition, 2004 .Methods for the three-dimensional measurement of a scene with a monocular camera moved relative to the scene are known to the person skilled in the art. In the literature, this topic can be found in particular under the term "Structure from Motion (SfM)". A well-known textbook in this field is: Richard Hartley and Andrew Zisserman.-Multiple View Geometry in Computer Vision. Cambridge University Press. Second edition, 2004 ,

Der hier vorgestellte Ansatz nutzt Bewegungen der Kamera 120 bezüglich des Umfelds 165 aus, die stattfinden, während sich beispielsweise das Fahrzeug 100 noch im Stillstand befindet.The approach presented here uses movements of the camera 120 concerning the environment 165 off, while, for example, the vehicle 100 still at a standstill.

Diese Bewegungen können auch klein sein: Bewegungen in der Größenordnung eines Millimeters genügen bereits. Größere Bewegungen, z. B. in der Größenordnung von Zentimetern, erlauben eine 3D-Rekonstruktion des nahen Umfelds 165 mit hoher Genauigkeit. Sind die Bewegungen noch größer (z. B. beim Öffnen der Tür 145), so kann eine gewünschte Genauigkeit schon mit geringerem Aufwand erreicht werden, z. B. mit geringerer Bildauflösung und geringerem Rechenaufwand.These movements can also be small: movements in the order of a millimeter are already sufficient. Larger movements, z. B. in the order of centimeters, allow a 3D reconstruction of the surrounding environment 165 with high accuracy. Are the movements even larger (z. B. when opening the door 145 ), so a desired accuracy can be achieved with less effort, z. B. with lower image resolution and lower computational effort.

Für die Gewinnung der dreidimensionalen Information aufgrund einer kleinen Bewegung der Kamera 120 bezüglich des Umfelds werden beispielsweise folgende Schritte durchgeführt:

  • – Bestimmung von korrespondierenden Punkten zwischen mindestens zwei Bildern der Szene, die zu unterschiedlichen Zeitpunkten aufgenommen wurden. Idealerweise ist die Szene dabei im Wesentlichen unbewegt. Trotzdem bewegen sich die korrespondierenden Punkte im Bild, da sich die Kamera 120 relativ zur Szene zumindest geringfügig bewegt. Verfahren zur Bestimmung von korrespondierenden Punkten in Bildfolgen sind dem Fachmann bekannt, z. B. unter den Begriffen „Motion Analysis“ oder „Optic(al) Flow“. Wenn hier von der Suche nach korrespondierenden Punkten gesprochen wird, so ist es in der Praxis zutreffender von korrespondierenden (kleinen) Bildregionen zu sprechen, nach denen gesucht wird.
  • – Optional vorgesehen sein kann eine Bestimmung der Eigenbewegung der Kamera 120 aus der Bildfolge (dem Fachmann bekannt im Rahmen von SfM) oder aus der durch die Konstruktion bekannten Mechanik der Bewegung. Hierzu können auch Signale von Sensoren oder Gebern oder Schaltern oder Lichtschranken oder Trägheitssensoren oder Magneten oder dergleichen ausgenutzt werden, z. B. Winkelinformationen von Stellmotoren oder Getrieben, die die Lage der Kamera 120 in Beziehung zu zumindest einer weiteren Komponente der Mobileinheit 100, hier des Fahrzeugs erfasst.
  • – Rekonstruktion von Zwischeninformationen in geeigneter Form, sodass eine weitere Stufe basierend auf den Zwischeninformationen eine Entscheidung treffen kann. Diese Zwischeninformation kann beispielsweise eine dreidimensionale Rekonstruktion des Umfelds sein, die aus den korrespondierenden Punkten durch Triangulation mit der SfM-Methode gewonnen wird. Aus einer solchen dreidimensionalen Rekonstruktion, z. B. einer 3D-Punktwolke, können dann weitere Zwischeninformationen extrahiert werden, z. B. über das Vorhandensein von Punkten in einer bestimmten Höhe über der Fahrbahn, sodass sie als Hindernis 160 zu interpretieren sind. Aber auch das Fehlen von erwarteten Punkten auf der Fahrbahn kann keine Zwischeninformationen darstellen, aus der z. B. auf das mögliche Vorhandensein eines Abgrunds als Objekt 160 geschlossen werden kann. Es ist nicht zwangsläufig notwendig, eine dreidimensionale Rekonstruktion des Umfelds 165 oder Objekten 160 darin vorzunehmen, denn vielfach können bereits aus Informationen, die mit geringerem Aufwand zu erhalten sind, die notwendigen Entscheidungen getroffen werden. Beispielsweise kann die eindimensionale Information über ein Maß der Verschiebung zwischen korrespondierenden Bildpunkten schon ausreichen, um eine Entscheidung zu treffen. In einem Beispiel wird dies später noch verdeutlicht.
  • – Besagte Entscheidungsstufe mit Ansteuerung einer Aktuatorik, z. B. um ein automatisches Anfahren freizugeben oder zu verhindern, z. B. wenn ein Hindernis 160 im Wege steht oder wenn das Fahrzeug 100 in einen Abgrund stürzen könnte.
For obtaining the three-dimensional information due to a small movement of the camera 120 With regard to the environment, for example, the following steps are carried out:
  • - Determination of corresponding points between at least two images of the scene, which were taken at different times. Ideally, the scene is essentially unmoved. Nevertheless, the corresponding points move in the picture, as the camera 120 at least slightly moved relative to the scene. Methods for determining corresponding points in image sequences are known to the person skilled in the art, for. For example, under the terms "motion analysis" or "optic (al) flow". When speaking of the search for corresponding points, in practice it is more appropriate to speak of corresponding (small) image regions that are searched for.
  • Optionally, provision may be made for determining the proper motion of the camera 120 from the image sequence (known to those skilled in the context of SfM) or from the mechanics of motion known by the construction. For this purpose, signals from sensors or encoders or switches or light barriers or inertial sensors or magnets or the like can be exploited, for. B. angle information of servomotors or transmissions, the position of the camera 120 in relation to at least one other component of the mobile unit 100 , captured here of the vehicle.
  • Reconstruction of intermediate information in a suitable form, so that a further stage based on the intermediate information can make a decision. This intermediate information can be, for example, a three-dimensional reconstruction of the environment, which is obtained from the corresponding points by triangulation with the SfM method. From such a three-dimensional reconstruction, z. B. a 3D point cloud, then more intermediate information can be extracted, for. For example, the presence of points at a certain height above the roadway, making them an obstacle 160 to interpret. But also the lack of expected points on the roadway can not represent intermediate information, from the z. B. on the possible presence of an abyss as an object 160 can be closed. It is not necessarily necessary to have a three-dimensional reconstruction of the environment 165 or objects 160 In many cases, the necessary decisions can already be made from information that can be obtained with less effort. For example, the one-dimensional information about a degree of shift between corresponding pixels may be enough to make a decision. In an example, this will be clarified later.
  • - said decision stage with control of an actuator, z. B. to release an automatic start or prevent, for. B. if an obstacle 160 gets in the way or if the vehicle 100 could plunge into a chasm.

Nachfolgend eine Auflistung von Möglichkeiten, wie eine Kamera eine zumindest kleine Bewegung vollziehen kann, ohne dass sich das Fahrzeug 100 dabei fortbewegen braucht. Diese Möglichkeiten werden nachfolgend nur kurz erläutert und sind in den Figuren teilweise nicht explizit dargestellt.

  • – Bewegung des Außenspiegel-Gehäuses, wobei die Kamera mit diesem Gehäuse verbunden ist. Es kann beispielsweise eine Mitnutzung der Bewegung der Anklapp-Funktion des Spiegels im Parkmodus oder aus dem Parkmodus des Fahrzeugs 100 zur Ermittlung von einem Objekt 160 oder der Position desselben erfolgen. Dabei reicht bereits eine kleine Bewegung aus. Es braucht also der Spiegel nicht ganz angeklappt werden, sondern es wird nur eine kleine Strecke von der möglichen Bewegungsstrecke ausgenutzt.
  • – Bewegung des Außenspiegels, wobei die Kamera 120 mit diesem Spiegel verbunden ist. Es erfolgt eine Mitnutzung der Bewegung der Spiegelverstellung durch einen Fahrer des Fahrzeugs 100.
  • – Bewegung der Fahrer- oder Beifahrertür 145, wobei die Kamera mit der Tür 145 oder mit dem Spiegel oder Spiegelgehäuse an der Tür 145 verbunden ist. Mitnutzung der Bewegung der Tür 145 beim Öffnen oder Schließen. Hierbei kann die Kamera (die auch schon vorhanden und sind z. B. für Rundumsicht- oder Topview-Funktionen vorgesehen sind) auch dazu genutzt werden, um eine mögliche Kollision der Tür 145 z. B. mit der Garagenwand oder einem anderen Fahrzeug rechtzeitig zu erkennen.
  • – Bewegung der Heckklappe oder Kofferraumklappe, wobei die Kamera mit der Klappe verbunden ist. Häufig sind solche Kameras als Rückfahrkameras vorgesehen. Im Falle von elektrisch öffnenden/schließenden Klappen ist es denkbar, dass eine kleine Bewegung (z. B. im Millimeter-Bereich) gezielt durchgeführt wird, damit mit der Kamera 120 eine Vermessung durchgeführt werden kann.
Below is a list of ways that a camera can perform at least a small amount of movement without the vehicle 100 need to move. These possibilities will be briefly explained below and are not explicitly shown in the figures.
  • - Movement of the exterior mirror housing, the camera is connected to this housing. It may, for example, a joint use of the movement of the folding function of the mirror in the parking mode or from the parking mode of the vehicle 100 to determine an object 160 or its position. A small movement is enough. So it does not need to be folded completely, but only a small distance of the possible movement distance is used.
  • - Movement of the exterior mirror, with the camera 120 connected to this mirror. There is a shared use of the movement of the mirror adjustment by a driver of the vehicle 100 ,
  • - Movement of the driver or passenger door 145 , with the camera with the door 145 or with the mirror or mirror housing on the door 145 connected is. Sharing the movement of the door 145 when opening or closing. Here, the camera (which is already available and are provided, for example, for all-round view or topview functions) can also be used to a possible collision of the door 145 z. B. with the garage wall or another vehicle in time to recognize.
  • - Moving the tailgate or trunk lid, with the camera connected to the flap. Frequently, such cameras are provided as rear view cameras. In the case of electrically opening / closing flaps, it is conceivable that a small movement (eg in the millimeter range) is purposefully carried out, thus with the camera 120 a survey can be performed.

Eine besonders nützliche Anwendung im Zusammenhang mit der Heckklappe ist die Vermeidung des Zusammenstoßes mit der Garagendecke, dem Garagentor oder sonstigen Hindernissen, die ein freies Aufschwingen behindern. Die typische Einbauposition der Kamera im Bereich der Griffleiste bietet geradezu ideale Voraussetzungen, um ein Hindernis während des Aufschwingens aufgrund der Klappenbewegung zu detektieren bzw. zu vermessen und die Klappe rechtzeitig anzuhalten, so dass eine Berührung und Beschädigung vermieden wird.

  • – Bewegung des Fahrzeugaufbaus aufgrund des Einsteigens (oder Aussteigens) von Personen. Diese Bewegung entsteht durch die Masse der Personen und das Einfedern des Fahrzeugs. Die Bewegung liegt in der Größenordnung von Millimetern. Da der ganze Fahrzeugaufbau sich dabei bewegt, können alle Kameras davon profitieren.
  • – Nutzung der Bewegung durch eine aktive Federung oder eine Fahrzeughöhenverstellung. Viele höherwertige Fahrzeuge sind mit einem System ausgestattet, das ein Anheben / Absenken zwischen Rad und Karosserie erlaubt. Es ist denkbar, dass solche Bewegungen mit kleinem (und für die Insassen kaum wahrnehmbarem) Hub gezielt durchgeführt werden, um Vermessungen durchzuführen. Davon können wieder alle Kameras rund um das Fahrzeug profitieren.
  • – Nutzung der Bewegung der Kurvenlicht-Schwenkeinrichtung oder Leuchtweitenregulierung für Scheinwerfer: Aus einer Vielzahl von Gründen (gute Übersicht im Frontbereich, Schutz durch Scheinwerfer/Scheibe, wenig Verschmutzung, wenig Vereisung, Vorhandensein von Spiegeln, Vorhandensein einer Scheinwerfer-Reinigungsanlage) kann es sinnvoll sein, eine Kamera im Scheinwerfer-Gehäuse unterzubringen. Sehr viele Fahrzeuge können ihre Scheinwerfer um einige Grad nicken (Leuchtweitenregulierung) oder schwenken (Kurvenlicht). Viele neuere Fahrzeuge weisen eine schwenkbare kleine Maske auf, mit der entgegenkommende Fahrzeuge so ausmaskiert werden, dass diese vom Scheinwerfer nicht geblendet werden. Für die genannten Bewegungen von Komponenten im Scheinwerfer sind in der Regel Elektromotoren als Aktuatoren vorgesehen. Es ist denkbar, dass die Aktuatoren vor dem Anfahren eine gezielte (kleine) Bewegung durchführen, damit mithilfe der Kameras das Anfahren abgesichert werden kann. Dazu ist die jeweilige Kamera so anzubringen, dass sie von einem Aktuator mitbewegt wird und dass die Kamerabewegung dabei auch eine translatorische Komponente aufweist.
  • – Aufbringen eines Antriebs-Drehmoments auf mindestens ein Rad (vorzugsweise auf die ganze Antriebsachse), während die Räder noch gebremst sind. Hierdurch vollführt das Fahrzeug eine Aufbäumbewegung (vorne oder hinten, je nach Antriebsachse). Diese Bewegung kann von jeder der vorhandenen Kameras für das hier vorgestellte Verfahren genutzt werden.
  • – Eine Kamera kann aus einem Versteck oder aus einem Schutzgehäuse oder hinter einem Schutzdeckel herausbewegt werden und die Phase der Bewegung nutzen. Eine Schutzabdeckung kann in erster Linie dafür gedacht sein, die Kamera vor Verschmutzung oder Beschädigung oder Vandalismus oder Sichtbarkeit zu schützen. Die Bewegungsmöglichkeit der Kamera ist bereits dazu vorgesehen, um die Kamera in eine für die Primärfunktion geeignete Funktion zu bringen. Während dieser Bewegung kann die Kamera aber bereits Bilder aus unterschiedlichen Perspektiven für das hier vorgestellte Verfahren (als Sekundärfunktion) gewinnen.
  • – Alternativ zu einer Bewegung der Kamera besteht in allen Fällen auch die Möglichkeit, stattdessen einen Spiegel zu bewegen und mit der Kamera über den bewegten Spiegel die Szene zu beobachten. Die Kamera 120 kann dann starr mit dem Fahrzeugaufbau verbunden sein. Insbesondere dort, wo ohnehin schon spiegelnde Flächen vorhanden sind (z. B. Reflektor im Scheinwerfer oder Außenspiegel), bietet sich diese Möglichkeit an.
A particularly useful application in connection with the tailgate is to avoid the collision with the garage ceiling, the garage door or other obstacles that impede a free swinging. The typical installation position of the camera in the area of the handle bar offers ideal conditions for detecting or measuring an obstacle during swinging due to the flap movement and for stopping the flap in good time, so that contact and damage is avoided.
  • Movement of the vehicle body due to boarding (or disembarking) of persons. This movement is caused by the mass of people and the deflection of the vehicle. The movement is on the order of millimeters. As the entire vehicle body moves, all cameras can benefit.
  • - Use of the movement by an active suspension or a vehicle height adjustment. Many higher value vehicles are equipped with a system that allows lifting / lowering between the wheel and the body. It is conceivable that such movements with small (and barely perceptible to the occupants) stroke are selectively carried out to perform surveys. All cameras around the vehicle can benefit from this again.
  • - Use of the movement of the cornering light pivoting device or headlamp leveling for headlights: For a variety of reasons (good overview in the front area, protection by headlamp / disc, little pollution, little icing, presence of mirrors, presence of a headlight cleaning system), it may make sense to house a camera in the headlight housing. Many vehicles can nod their headlights by a few degrees (headlamp leveling) or swivel (cornering light). Many newer vehicles have a swiveling small mask, with the oncoming vehicles are masked out so that they are not dazzled by the headlight. For the above movements of components in the headlights electric motors are usually provided as actuators. It is conceivable that the actuators make a targeted (small) movement before starting so that the approach can be secured with the aid of the cameras. For this purpose, the respective camera is to be mounted so that it is moved by an actuator and that the camera movement thereby also has a translational component.
  • - Applying a drive torque to at least one wheel (preferably on the entire drive axle) while the wheels are still braked. As a result, the vehicle performs a Aufbäumbewegung (front or rear, depending on the drive axle). This movement can be used by any of the existing cameras for the procedure presented here.
  • - A camera can be moved out of a hiding place or from a protective housing or behind a protective cover and use the phase of the movement. A protective cover may be primarily intended to protect the camera from dirt or damage or vandalism or visibility. The possibility of movement of the camera is already provided to bring the camera in a function suitable for the primary function. During this movement, however, the camera can already gain images from different perspectives for the process presented here (as a secondary function).
  • - As an alternative to a movement of the camera in all cases, it is also possible to move a mirror instead and to observe the scene with the camera via the moving mirror. The camera 120 can then be rigidly connected to the vehicle body. In particular, where reflective surfaces are already present (eg reflector in the headlight or exterior mirror), this possibility is appropriate.

Während die bisher genannten Beispiele den Zusatzaufwand für die Kamerabasierte Hinderniserkennung minimal halten, weil sie ohnehin vorhandene Möglichkeiten der Bewegung mitnutzen, besteht selbstverständlich immer auch die Möglichkeit, neue Bewegungsmöglichkeiten vorzusehen.While the previously mentioned examples minimize the overhead for the camera-based obstacle detection because they share existing possibilities of movement anyway, there is of course always the possibility of providing new possibilities of movement.

Beispielsweise kann eine Kamera 120 mechanisch auf und ab oder seitlich bewegt werden, um so Aufnahmen aus verschiedenen Perspektiven zu gewinnen.For example, a camera 120 be moved up and down or sideways, to capture images from different perspectives.

Als anschaulicher Nachweis für die Praxistauglichkeit des hier vorgestellten Ansatzes dient das nachfolgend beschriebene Experiment.As an illustrative proof of the practicality of the approach presented here is the experiment described below.

Eine weitwinklige, monokulare Kamera ist beispielsweise im Bereich des Kühlergrills an einem Fahrzeug starr montiert, so dass die Kamera den für den Fahrer kaum einsehbaren Bereich unmittelbar vor dem Fahrzeug 100 erfasst, 3 zeigt eine perspektivische Ansicht einer solchen Kamera 120 in einem Versuchsaufbau in einer Szene mit Hindernissen 160 vor einem Fahrzeug 100, an dem im Bereich des Kühlergrills eine monokulare Experimentalkamera 120 angebracht ist. Vor dem Fahrzeug 100 befinden sich somit Hindernisse 160, sodass ein Anfahren vorwärts vermieden werden kann.For example, a wide-angle monocular camera is rigidly mounted on a vehicle in the area of the radiator grille, so that the camera is the area that is barely visible to the driver in front of the vehicle 100 detected, 3 shows a perspective view of such a camera 120 in a test setup in a scene with obstacles 160 in front of a vehicle 100 , in the area of the grille, a monocular experimental camera 120 is appropriate. In front of the vehicle 100 There are thus obstacles 160 so that a start can be avoided forward.

Das verwendete Fahrzeug 100 besitzt eine Luftfederung, bei der die Bodenfreiheit variiert werden kann. Das Anheben und Absenken lässt sich elektronisch ansteuern. Die Kamera 120 nimmt laufend Bilder von der Szene vor dem Fahrzeug 100 auf. Zwischen dem ersten Bild 400 und dem zweiten Bild 410 aus 4 beträgt der Hub 15 mm. Hieraus kann ein Differenzbild 420 erstellt werden, das zur besseren visuellen Verdeutlichung des Unterschiedes perspektivischen Darstellung der Objekte oder Hindernisse 160 in den Bildern 400 und 410 in der 4 abgebildet ist. The vehicle used 100 has an air suspension, in which the ground clearance can be varied. The raising and lowering can be controlled electronically. The camera 120 takes running pictures of the scene in front of the vehicle 100 on. Between the first picture 400 and the second picture 410 out 4 the stroke is 15 mm. This can be a difference image 420 to create a better visual clarification of the difference perspective representation of the objects or obstacles 160 in the pictures 400 and 410 in the 4 is shown.

Zwischen diesen Bildern 400 und 410 wird eine Korrespondenzanalyse (Suche nach korrespondierenden Bildpunkten) mit einem optischen Fluss-Algorithmus vorgenommen. Dieser liefert hier rund 100.000 korrespondierende Bildpunkt-Paare, die in 5 als Bewegungsvektoren 500 dargestellt sind. Die genaue Anzahl ist eigentlich unerheblich, solange es genügend viele sind, so dass es auf jedem potenziellen Hindernis so viele Korrespondenzen gibt, dass das Hindernis als solches erkannt werden kann. Aus den unterschiedlichen Längen und Richtungen dieser Vektoren 500 lassen sich z. B. mit bekannten SfM-Algorithmen (Structure from Motion) Informationen über die dreidimensionale Szene gewinnen. 5 zeigt somit ein Ergebnis der Korrespondenzbildung zwischen den beiden Bildern 400 und 410 aus 4. Between these pictures 400 and 410 a correspondence analysis (search for corresponding pixels) is performed with an optical flow algorithm. This provides about 100,000 corresponding pixel pairs in 5 as motion vectors 500 are shown. The exact number is actually insignificant, as long as there are enough, so that there is so much correspondence on each potential obstacle that the obstacle can be recognized as such. From the different lengths and directions of these vectors 500 can be z. B. gain information about the three-dimensional scene with known SfM algorithms (Structure from Motion). 5 thus shows a result of correspondence formation between the two pictures 400 and 410 out 4 ,

Falls der Betrag des Hubs zwischen den Aufnahmen bekannt ist, kann daraus ein metrischer Skalierungsfaktor für die dreidimensionale Rekonstruktion gewonnen werden. Selbst mit bloßem Auge ist aus 5 bereits erkennbar, dass die Hindernisse 160, die hier einem Anfahren im Weg stehen, durch die Korrespondenzanalyse leicht detektierbar bzw. erfassbar werden. Selbst ein viel kleinerer Hub von beispielsweise nur einem Millimeter würde hier bereits ausreichen, um die Hindernisse 160 so zu erfassen, dass eine Funktion geeignet darauf reagieren kann.If the amount of the stroke between shots is known, then a metric scaling factor for the three-dimensional reconstruction can be obtained therefrom. Even with the naked eye is out 5 already recognizable that the obstacles 160 , which stand in the way of a start-up here, can be easily detected or detected by the correspondence analysis. Even a much smaller stroke of, for example, just one millimeter would already be sufficient here for the obstacles 160 so that a function can react appropriately.

Der Fachmann kann hier weitere geeignete Algorithmen angeben, um eine entsprechende Auswertung vorzunehmen und eine geeignete Entscheidung zu treffen. Die Bildung von dreidimensionalen Zwischeninformationen mit SfM-Methoden ist also zwar sinnvoll, aber nicht unbedingt notwendig.The person skilled in the art can specify here further suitable algorithms in order to carry out a corresponding evaluation and to make a suitable decision. The formation of three-dimensional intermediate information with SfM methods is therefore useful, but not absolutely necessary.

Ein entscheidender Vorteil des hier vorgeschlagenen Ansatzes ist darin zu sehen, dass er in bereits bestehenden Systemen eingesetzt werden kann und vorhandene Kameras und Infrastruktur (Leitungen, Steuergeräte, Algorithmen, usw.) mitnutzen kann. A decisive advantage of the approach proposed here is the fact that it can be used in existing systems and can use existing cameras and infrastructure (lines, control units, algorithms, etc.).

Wie vorstehend bereits erläutert, lässt sich der hier vorgeschlagene Ansatz auch verallgemeinern und z. B. auf Roboter übertragen.As already explained above, the approach proposed here can also be generalized and z. B. transferred to robots.

Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden. The embodiments described and shown in the figures are chosen only by way of example. Different embodiments may be combined together or in relation to individual features. Also, an embodiment can be supplemented by features of another embodiment.

Ferner können die hier vorgestellten Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden. Furthermore, the method steps presented here can be repeated as well as executed in a sequence other than that described.

Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.If an exemplary embodiment comprises a "and / or" link between a first feature and a second feature, then this is to be read so that the embodiment according to one embodiment, both the first feature and the second feature and according to another embodiment either only first feature or only the second feature.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Richard Hartley and Andrew Zisserman.-Multiple View Geometry in Computer Vision. Cambridge University Press. Second edition, 2004 [0039] Richard Hartley and Andrew Zisserman.-Multiple View Geometry in Computer Vision. Cambridge University Press. Second edition, 2004 [0039]

Claims (13)

Verfahren (200) zum Erkennen zumindest eines Objekts (160) in einer Umgebung (165) einer Mobileinheit (100), insbesondere eines Fahrzeugs und/oder eines Roboters, wobei das Verfahren (200) die folgenden Schritte aufweist: – Einlesen (210) eines das Objekt (160) enthaltenden ersten Bildes (400) der Umgebung (165) der Mobileinheit (100), das zu einem ersten Zeitpunkt erfasst wurde, wobei das erste Bild (400) von einem in oder an der Mobileinheit (100) angeordneten Kamerasystem (120) eingelesen wird; – Einlesen (220) zumindest eines das Objekt (160) enthaltenden zweiten Bildes (410) der Umgebung (165) der Mobileinheit (100), das zu einem zweiten Zeitpunkt erfasst wurde, wobei das zweite Bild (410) von dem Kamerasystem (120) eingelesen wird und wobei die Mobileinheit (100) zwischen dem ersten und zweiten Zeitpunkt ruht oder um nicht mehr als eine Toleranzstrecke gegenüber einer Referenzposition (155) in der Umgebung (165) der Mobileinheit (100) bewegt wurde; und – Ermitteln (230) des Objektes (160) in der Umgebung (165) der Mobileinheit (160) unter Verwendung des ersten (400) und zweiten (410) Bildes.Procedure ( 200 ) for recognizing at least one object ( 160 ) in an environment ( 165 ) of a mobile unit ( 100 ), in particular a vehicle and / or a robot, wherein the method ( 200 ) comprises the following steps: - reading in ( 210 ) one of the object ( 160 ) containing the first image ( 400 ) the environment ( 165 ) of the mobile unit ( 100 ) captured at a first time, the first image ( 400 ) from or in the mobile unit ( 100 ) arranged camera system ( 120 ) is read; - read in ( 220 ) at least one object ( 160 ) second image ( 410 ) the environment ( 165 ) of the mobile unit ( 100 ) detected at a second time, the second image ( 410 ) from the camera system ( 120 ) and the mobile unit ( 100 ) is at rest between the first and second times or by not more than one tolerance distance from a reference position ( 155 ) in the neighborhood ( 165 ) of the mobile unit ( 100 ) was moved; and - determining ( 230 ) of the object ( 160 ) in the neighborhood ( 165 ) of the mobile unit ( 160 ) using the first ( 400 ) and second ( 410 ) Picture. Verfahren (200) gemäß Anspruch 1, dadurch gekennzeichnet, dass im Schritt des Einlesens (220) des zweiten Bildes (410) ein Bild als zweites Bild (410) eingelesen wird, welches aus einer anderen Position des Kamerasystems (120) oder zumindest einer Komponente des Kamerasystems (120) in Bezug zu zumindest einem Element (145) der Mobileinheit (100) aufgenommen wurde, als das erste Bild. Procedure ( 200 ) according to claim 1, characterized in that in the step of reading ( 220 ) of the second image ( 410 ) a picture as second picture ( 410 ) which is read from another position of the camera system ( 120 ) or at least one component of the camera system ( 120 ) in relation to at least one element ( 145 ) of the mobile unit ( 100 ) was taken as the first picture. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Ermittelns (230) eine Position des Objektes (160) in Bezug zur Mobileinheit (100) ermittelt wird. Procedure ( 200 ) according to one of the preceding claims, characterized in that in the step of determining ( 230 ) a position of the object ( 160 ) in relation to the mobile unit ( 100 ) is determined. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass in den Schritten des Einlesens (210) des ersten Bildes (400) und des Einlesens (220) des zweiten Bildes (410) das erste (400) und zweite (410) Bild von einem monokularen Kamerasystem (120) eingelesen werden. Procedure ( 200 ) according to one of the preceding claims, characterized in that in the steps of reading in ( 210 ) of the first image ( 400 ) and reading in ( 220 ) of the second image ( 410 ) the first ( 400 ) and second ( 410 ) Image from a monocular camera system ( 120 ) are read. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (220) des zweiten Bildes (410) als zweites Bild (410) ein Bild eingelesen wird, das von einem am zweiten Zeitpunkt von der Mobileinheit (100) abgeklappten Element (145) erfasst wurde.Procedure ( 200 ) according to one of the preceding claims, characterized in that in the step of reading ( 220 ) of the second image ( 410 ) as a second image ( 410 ) an image is read in from a mobile unit at the second time ( 100 ) folded element ( 145 ) was recorded. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, gekennzeichnet durch einen Schritt des Bewegens zumindest eines Teils des Kamerasystems (120) in Bezug auf zumindest ein Element (145) der Mobileinheit (100) vor dem Schritt des Einlesens (240) des zweiten Bildes (410).Procedure ( 200 ) according to one of the preceding claims, characterized by a step of moving at least a part of the camera system ( 120 ) with regard to at least one element ( 145 ) of the mobile unit ( 100 ) before the reading step ( 240 ) of the second image ( 410 ). Verfahren (200) gemäß Anspruch 6, dadurch gekennzeichnet, dass im Schritt des Bewegens ein Spiegel des Kamerasystems (120) in Bezug auf eine Kamera des Kamerasystems (120) bewegt wird.Procedure ( 200 ) according to claim 6, characterized in that in the step of moving a mirror of the camera system ( 120 ) with respect to a camera of the camera system ( 120 ) is moved. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Einlesens (210, 220) des ersten (400) und/oder zweiten (410) Bildes das betreffende Bild von einem Kamerasystem (120) eingelesen wird, das zumindest ein Bild zur Verwertung in einer weiteren Fahrerassistenzfunktion bereitstellt. Procedure ( 200 ) according to one of the preceding claims, characterized in that in the step of reading ( 210 . 220 ) of the first ( 400 ) and / or second ( 410 ) Image the relevant image from a camera system ( 120 ), which provides at least one image for utilization in another driver assistance function. Verfahren (200) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Schritt des Einlesens (210) des zweiten Bildes (410) ansprechend auf ein Erfassungs- und/oder Einlesesignal (168) erfolgt, insbesondere wobei das Erfassungs- und/oder Einlesesignal (168) eine physikalische Größe repräsentiert, die eine Information über eine bevorstehende Nutzung der Mobileinheit (100) repräsentiert. Procedure ( 200 ) according to one of the preceding claims, characterized in that the reading-in step ( 210 ) of the second image ( 410 ) in response to a detection and / or read-in signal ( 168 ), in particular wherein the detection and / or read-in signal ( 168 ) represents a physical quantity that contains information about an imminent use of the mobile unit ( 100 ). Verfahren (200) gemäß einem der vorangegangenen Ansprüche, gekennzeichnet, durch einen Schritt des Steuerns einer Bewegung der Mobileinheit (100) unter Verwendung einer Information über das ermittelte Objekt (160) und/oder der ermittelten Position des Objektes (160) in der Umgebung der Mobileinheit (100). Procedure ( 200 ) according to one of the preceding claims, characterized by a step of controlling a movement of the mobile unit ( 100 ) using information about the detected object ( 160 ) and / or the determined position of the object ( 160 ) in the environment of the mobile unit ( 100 ). Vorrichtung (119), die ausgebildet ist, um alle Schritte eines Verfahrens (200) gemäß einem der vorangegangen Ansprüche durchzuführen.Contraption ( 119 ), which is designed to handle all the steps of a process ( 200 ) according to one of the preceding claims. Computerprogramm, das dazu eingerichtet ist, alle Schritte eines Verfahrens (200) gemäß einem der vorangegangen Ansprüche durchzuführen.Computer program adapted to perform all steps of a procedure ( 200 ) according to one of the preceding claims. Maschinenlesbares Speichermedium mit einem darauf gespeicherten Computerprogramm nach Anspruch 12.A machine-readable storage medium having a computer program stored thereon according to claim 12.
DE102014211869.7A 2014-06-20 2014-06-20 Method and device as well as computer program and machine-readable storage medium for recognizing at least one object in an environment of a mobile unit Active DE102014211869B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014211869.7A DE102014211869B4 (en) 2014-06-20 2014-06-20 Method and device as well as computer program and machine-readable storage medium for recognizing at least one object in an environment of a mobile unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014211869.7A DE102014211869B4 (en) 2014-06-20 2014-06-20 Method and device as well as computer program and machine-readable storage medium for recognizing at least one object in an environment of a mobile unit

Publications (2)

Publication Number Publication Date
DE102014211869A1 true DE102014211869A1 (en) 2015-12-24
DE102014211869B4 DE102014211869B4 (en) 2024-03-21

Family

ID=54767912

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014211869.7A Active DE102014211869B4 (en) 2014-06-20 2014-06-20 Method and device as well as computer program and machine-readable storage medium for recognizing at least one object in an environment of a mobile unit

Country Status (1)

Country Link
DE (1) DE102014211869B4 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220001856A1 (en) * 2020-07-02 2022-01-06 Robert Bosch Gmbh Method for securing a starting movement of a semi-automated or fully automated vehicle
DE102021212774A1 (en) 2021-11-12 2023-05-17 Robert Bosch Gesellschaft mit beschränkter Haftung Method for determining whether a person has entered and/or exited a vehicle
DE102022212273A1 (en) 2022-11-17 2024-05-23 Continental Autonomous Mobility Germany GmbH Determining a distance of a stationary vehicle from at least one object and/or obstacle in an environment of the vehicle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10110904A1 (en) * 2001-03-07 2002-09-12 Volkswagen Ag Observation of the space around a motor vehicle using an inventive arrangement with as little as one camera and a rotating mirror that allows practically the whole space to be observed
DE60009000T2 (en) * 1999-10-21 2005-03-10 Matsushita Electric Industrial Co., Ltd., Kadoma Parking assistance system
DE102006004260A1 (en) * 2006-01-31 2007-08-02 Bayerische Motoren Werke Ag Camera system for a motor vehicle
DE102006029892A1 (en) * 2006-06-28 2008-01-03 Bayerische Motoren Werke Ag Camera system for a motor vehicle
DE102009031809A1 (en) * 2009-07-03 2011-01-13 Volkswagen Ag Method for determining environmental data of car, involves generating three dimensional data by application of environmental data and path that are reclined during movement of motor vehicle
DE102012200645A1 (en) * 2012-01-18 2013-07-18 Robert Bosch Gmbh Gaining depth information with a monocamera installed in a vehicle
DE102012219810A1 (en) * 2012-10-30 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Method and device for operating a vehicle with a camera arranged on an exterior mirror

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60009000T2 (en) * 1999-10-21 2005-03-10 Matsushita Electric Industrial Co., Ltd., Kadoma Parking assistance system
DE10110904A1 (en) * 2001-03-07 2002-09-12 Volkswagen Ag Observation of the space around a motor vehicle using an inventive arrangement with as little as one camera and a rotating mirror that allows practically the whole space to be observed
DE102006004260A1 (en) * 2006-01-31 2007-08-02 Bayerische Motoren Werke Ag Camera system for a motor vehicle
DE102006029892A1 (en) * 2006-06-28 2008-01-03 Bayerische Motoren Werke Ag Camera system for a motor vehicle
DE102009031809A1 (en) * 2009-07-03 2011-01-13 Volkswagen Ag Method for determining environmental data of car, involves generating three dimensional data by application of environmental data and path that are reclined during movement of motor vehicle
DE102012200645A1 (en) * 2012-01-18 2013-07-18 Robert Bosch Gmbh Gaining depth information with a monocamera installed in a vehicle
DE102012219810A1 (en) * 2012-10-30 2014-04-30 Bayerische Motoren Werke Aktiengesellschaft Method and device for operating a vehicle with a camera arranged on an exterior mirror

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Richard Hartley and Andrew Zisserman.-Multiple View Geometry in Computer Vision. Cambridge University Press. Second edition, 2004

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220001856A1 (en) * 2020-07-02 2022-01-06 Robert Bosch Gmbh Method for securing a starting movement of a semi-automated or fully automated vehicle
DE102021212774A1 (en) 2021-11-12 2023-05-17 Robert Bosch Gesellschaft mit beschränkter Haftung Method for determining whether a person has entered and/or exited a vehicle
DE102022212273A1 (en) 2022-11-17 2024-05-23 Continental Autonomous Mobility Germany GmbH Determining a distance of a stationary vehicle from at least one object and/or obstacle in an environment of the vehicle

Also Published As

Publication number Publication date
DE102014211869B4 (en) 2024-03-21

Similar Documents

Publication Publication Date Title
EP2753533B1 (en) Determination of the position of structural elements of a vehicle
EP1470958B1 (en) Monitoring of a free space for motor vehicles
EP2043045B1 (en) Method for tracking an object
EP1848626B1 (en) Device for bringing a motor vehicle to a target position
DE102009031809B4 (en) Method and device for measuring the environment of a motor vehicle
DE102011080702B3 (en) Object detection device for a vehicle, vehicle having such an object detection device
DE10037128A1 (en) Method and device for inspecting a vehicle driving path uses a camera linked to a lens or a lens system with electrically adjustable or panning devices for altering focal length and viewing direction of the camera's current position.
DE102007059735A1 (en) Obstacle and vehicle e.g. lorry, recognition system, has cameras aligned such that area on side and over end of own vehicle are recognized, and output device providing information about object or vehicle within range of own vehicle
EP2883769A2 (en) Method and device for the lateral guidance of a motor vehicle, in particular for assisting evasive action
DE102015223176A1 (en) Method and device for determining occlusion areas in the vehicle environment of a vehicle
EP3818466B1 (en) Quick identification of dangerous or endangered objects in the surroundings of a vehicle
DE102004056669A1 (en) Device for the calibration of an image sensor system in a motor vehicle
DE102018002955A1 (en) PROCESS AND CONTROL ARRANGEMENT FOR ENVIRONMENTAL PERCEPTION
DE102008061760A1 (en) Device for monitoring an environment of a vehicle
EP3167427A1 (en) Merging of partial images to form an image of surroundings of a mode of transport
DE102004046101B4 (en) Method, safety device and use of the safety device for the early detection of motor vehicle collisions
DE102015116542A1 (en) Method for determining a parking area for parking a motor vehicle, driver assistance system and motor vehicle
DE102015009875A1 (en) Method for autonomous driving of a vehicle
DE102013019226A1 (en) Device for camera-based environmental detection for a vehicle
DE102015010746A1 (en) Method for self-localization of a vehicle
DE102014211869B4 (en) Method and device as well as computer program and machine-readable storage medium for recognizing at least one object in an environment of a mobile unit
WO2021239323A1 (en) Method for identifying image artifacts, controller for carrying out such a method, identifying device comprising such a controller, and motor vehicle comprising such an identifying device
DE102016111079A1 (en) Method for object height detection of an object in the environment of a motor vehicle and driver assistance system
DE10321228B4 (en) Optical detection system for vehicles
DE102010013093A1 (en) Method for creating model of surrounding area of motor vehicle i.e. car, involves determining whether card cells are loaded with object represented by three- dimensional structures

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60R0001000000

Ipc: B60R0001220000

R018 Grant decision by examination section/examining division