18 W (pat) 142/14
BUNDESPATENTGERICHT W (pat) 142/14
_______________________
(Aktenzeichen)
BESCHLUSS In der Beschwerdesache betreffend die Patentanmeldung 10 2005 001 026.1-53 …
hat der 18. Senat (Technischer Beschwerdesenat) des Bundespatentgerichts in der Sitzung am 23. September 2016 durch die Vorsitzende Richterin Dipl.-Ing. Wickborn sowie den Richter Kruppa, die Richterin Dipl.-Phys. Dr. OttenDünnweber und den Richter Dr.-Ing. Flaschke BPatG 152 08.05 beschlossen:
Auf die Beschwerde der Anmelderin wird der Beschluss der Prüfungsstelle für Klasse G 06 K des Deutschen Patent- und Markenamts vom 17. Januar 2013 aufgehoben und das Patent 10 2005 001 026 auf der Grundlage folgender Unterlagen erteilt:
Patentansprüche 1 9. September 2016,
bis 3,
eingegangen am
Beschreibung Seiten 1, 2, 2a, 3, 9, 25, 28, 29 und 39, eingegangen am 9. September 2016, Seite 37, eingegangen am 14. September 2016, (ursprüngliche) Beschreibung Seiten 4 bis 8, 10 bis 24, 26, 27, 30 bis 36, 38 und 40, eingegangen am 3. Februar 2005,
(ursprüngliche) Figuren 1 bis 6, eingegangen am 3. Februar 2005.
Gründe I.
Die Patentanmeldung 10 2005 001 026.1 ist am 7. Januar 2005 beim Deutschen Patent- und Markenamt eingereicht worden und nimmt eine japanische Priorität (JP 2004/004010) vom 9. Januar 2004 in Anspruch. Sie trägt die Bezeichnung
„Gesichtsbild-Erfassungsverfahren und Gesichtsbild-Erfassungssystem“.
Die Anmeldung wurde durch die Prüfungsstelle für Klasse G 06 K des Deutschen Patent- und Markenamts mit Beschluss vom 17. Januar 2013 zurückgewiesen, weil die Gegenstände der (damals geltenden) Ansprüche 1 und 2 im Hinblick auf die Druckschriften D1: IDO, J.; TAKEMURA, K.; MATSUMOTO, Y.; OGASAWARA, T.: Robotic receptionist ASKA: a research platform for humanrobot interaction, 2002, Proceedings of the 2002 IEEE International Workshop on Robot and Human Interactive Communication, Seiten 306 - 311,
D2: HAJJAWI, M.K.; SHIRKHODAIE, A: Cooperative visual team working and target tracking of mobile robots, 2002, Proceedings of the 34th Southeastern Symposium on System Theory, Seiten 376 - 380 und D3: OKUNO, H.G.; NAKADAI, K.; HIDAI, K.I.; MIZOGUCHI, H.; KITANO, H.: Human-robot interaction through real-time auditory and visual multiple-talker tracking, 2001, Proceedings of the 2001 IEEE/RSJ International Conference on Intelligent Robots and Systems, Seiten 1402 - 1409 nicht auf einer erfinderischen Tätigkeit beruhen.
Gegen diesen Beschluss richtet sich die Beschwerde der Anmelderin.
Im Prüfungsverfahren waren ferner die Druckschriften D4: KANDA, T.; ISHIGURO, H.; IMAI, M.; ONO, T.: Body movement analysis of human-robot interaction, 2003, Proceedings of 18th International Joint Conference on Artificial Intelligence 2003, Seiten 177 - 182,
D5: US 2003 / 0088335 A1, D6 : EP 1 074 352 A2,
D7: Introducing a New ASIMO Featuring Intelligence Technology,
Honda Worldwide site, Press Release 5. Dezember 2002,
Honda Motor Co., Ltd.,
http://web.
Archive.org/web/-
20031203211937/
http://world.honda.com/news/2002/c021205.html,
D8: KANDA, T.; HIRANO, T.; EATON, D.: ISHIGURO, H.: A practical experiment with interactive humanoid robots in a human society, 2003, Third IEEE International Conference on Humanoid Robots (Humanoids) 2003 (18 Seiten) und D9: EP 1 343 115 A1 berücksichtigt worden.
In der Beschreibungseinleitung sind folgende Druckschriften genannt:
D10: D11: D12:
JP H02- 240 684 A JP H07- 295 637 A JP 2001 266 152 A.
Die Beschwerdeführerin beantragt sinngemäß, zuletzt mit Schriftsatz vom 14. September 2016,
den angegriffenen Beschluss vom 17. Januar 2013 aufzuheben und das Patent zu erteilen auf der Grundlage folgender Unterlagen:
Patentansprüche 1 9. September 2016,
bis 3,
eingegangen am
Beschreibung Seiten 1, 2, 2a, 3, 9, 25, 28, 29 und 39, eingegangen am 9. September 2016, Seite 37, eingegangen am 14. September 2016, (ursprüngliche) Beschreibung Seiten 4 bis 8, 10 bis 24, 26, 27, 30 bis 36, 38 und 40, eingegangen am 3. Februar 2005, (ursprüngliche) Figuren 1 bis 6, eingegangen am 3. Februar 2005.
Der seitens des Senats mit einer Gliederung versehene geltende Patentanspruch 1 lautet:
„Gesichtsbild-Erfassungsverfahren, M1 welches einen Roboter (2) M1.1 mit einer Kamera (21a) und M1.2 einem Arm (27) verwendet,
wobei das Verfahren die Schritte umfasst: Ma (a) Detektieren einer Zielperson, deren Gesichtsbild aus einem mittels der Kamera (21a) erhaltenen Bild erfasst werden soll, und Annähern des Roboters (2) an die Zielperson; Mb (b) Bewegen des Arms (27) auf die Zielperson zu; und Mc (c) Durchführen einer Bildaufnahme des Gesichtsbilds der Zielperson innerhalb einer vorbestimmten Zeitperiode; dadurch gekennzeichnet, M0 dass vor dem Schritt a) die Zielperson mit einer stationären Überwachungskamera (4) erfasst wird und daraus Ortsinformation der Zielperson innerhalb eines Rezeptionsbereichs gewonnen wird, Mb1… dass im Schritt b) Mb2 basierend auf der mittels der stationären Überwachungskamera (4) gewonnenen Ortsinformation
…Mb1 der Arm (27) auf die Zielperson zu bewegt wird, um der Zielperson ein Händeschütteln anzubieten, wenn die Annäherung des Roboters (2) an die Zielperson beendet ist; Mc1 dass im Schritt c) mittels der Kamera (21a) des Roboters (2) das Gesichtsbild der Zielperson ausgelöst durch Betätigung eines Händeschüttel-Sensors während des Händeschüttelns mit der Zielperson aufgenommen wird; dass der Schritt c) die Schritte umfasst:
Mc2… Erfassen einer vorbestimmten Anzahl von Gesichtsbildern der Zielperson, wenn die Bildaufnahme des Gesichtsbilds der Zielperson durchgeführt wird; Mc3 Berechnen der Ähnlichkeit des letzten Gesichtsbilds zu einem Klassenbild, das aus allen Gesichtsbildern außer dem letzten Gesichtsbild generiert wird; Wiederholen der Bildaufnahme des Gesichtsbilds, bis die errechnete Ähnlichkeit einen Schwellenwert überschreitet; und
…Mc2 Beenden der Bildaufnahme des Gesichtsbilds, bevor eine vorbestimmte Zeitperiode abgelaufen ist, und dass Md in einem Schritt d) das im Schritt c) erhaltene Gesichtsbild in einer Datenbank für Besucherinformationen (34b) gespeichert wird.“
Der geltende Patentanspruch 2 lautet:
„Gesichtsbild-Erfassungssystem, welches umfasst: N1 - einen Roboter (2) N1.1 mit einer Kamera (21a) und N1.2 einem Arm (27); und Na…
- eine Bewegungs-Überwachungseinheit (B), welche einen Besucher-Detektor (4, 31) einschließt, der die Gegenwart eines Besuchers detektiert,
Na1 einen Befehls-Generator (33), der einen Befehl generiert, der die Bewegung des Roboters (2) steuert, und Na2 eine Gesichtsbild-Registrierungseinheit (34b), die ein Gesichtsbild des Besuchers aufbewahrt,
…Na wobei die Bewegungs-Überwachungseinheit (B) einen im BefehlsGenerator (33) generierten Befehl an den Roboter (2) übermittelt, wenn der Besucher vom Besucher-Detektor (31) detektiert worden ist, wobei sich der Roboter (2) dem Besucher annähert Nb und der Roboter (2) den Arm (27) auf den Besucher zu bewegt, und Nc wobei der Roboter (2) in einer vorbestimmten Zeitperiode eine Bildaufnahme des Gesichtsbilds des Besuchers unter Verwendung der Kamera (21a) durchführt,
dadurch gekennzeichnet,
N0 dass der Besucher-Detektor (4, 31) der Bewegungs-Überwachungseinheit (B) eine stationäre Überwachungskamera (4) aufweist, um Ortsinformation des Besuchers innerhalb eines Rezeptionsbereichs zu gewinnen,
Nb1… dass der Roboter (2) den Arm (27)
Nb2 basierend auf der mittels der stationären Überwachungskamera (4) gewonnenen Ortsinformation
…Nb1 auf den Besucher zu bewegt, um dem Besucher in Übereinstimmung mit dem Befehl ein Händeschütteln anzubieten, wenn die Annäherung des Roboters (2) an den Besucher beendet ist, und Nc1 ausgelöst durch Betätigung eines Händeschüttel-Sensors mit dem Besucher unter Verwendung der Kamera (21a) des Roboters (2) die Bildaufnahme eines Gesichtsbilds des Besuchers durchführt,
Nc2… dass der Roboter (2) eine vorbestimmte Anzahl von Gesichtsbildern des Besuchers erfasst, wenn die Bildaufnahme des Gesichtsbilds des Besuchers durchgeführt wird,
Nc3 die Ähnlichkeit des letzten Gesichtsbilds zu einem Klassenbild, das aus allen Gesichtsbildern außer dem letzten Gesichtsbild generiert wird, berechnet, die Bildaufnahme des Gesichtsbilds wiederholt, bis die berechnete Ähnlichkeit einen Schwellenwert überschreitet, und
…Nc2 die Bildaufnahme des Gesichtsbilds beendet, bevor die vorbestimmte Zeitperiode abgelaufen ist, und Nd dass die Bewegungs-Überwachungseinheit (B) das von der Kamera (21a) des Roboters (2) erfasste Gesichtsbild in der GesichtsbildRegistrierungseinheit (34b) speichert.“
Der geltende Patentanspruch 3 lautet:
„Gesichtsbild-Erfassungssystem gemäß Anspruch 2, bei welchem der Roboter (2) mit dem Händeschüttel-Sensor überprüft, ob der Besucher den Arm (27) akzeptiert hat oder nicht, wobei der Roboter (2) überprüft, ob der Besucher den Arm akzeptiert hat oder nicht, wenn der Arm (27) des Roboters (2) auf den Besucher zu bewegt worden ist, und der Roboter (2) die Bildaufnahme des Gesichtsbilds des Besuchers mittels der Kamera (21a) des Roboters (2) durchführt, wenn befunden worden ist, dass der Besucher das Händeschütteln akzeptiert hat.“
Die Beschwerdeführerin macht hierzu geltend, dass die geänderte Anspruchsfassung zulässig sei und die Gegenstände der Ansprüche neu und erfinderisch seien.
Wegen der weiteren Einzelheiten wird auf den Akteninhalt verwiesen.
II.
Die frist- und formgerecht eingelegte und auch sonst zulässige Beschwerde hat Erfolg. Denn der zweifelsfrei gewerblich anwendbare Gegenstand des nunmehr geltenden Patentbegehrens ist gegenüber dem im Verfahren befindlichen Stand der Technik neu und beruht auf einer erfinderischen Tätigkeit. Auch die weiteren Voraussetzungen zur Patenterteilung sind erfüllt (PatG §§ 1 bis 5, § 34).
1. Die Patentanmeldung betrifft ein Gesichtsbild-Erfassungsverfahren und ein Gesichtsbild-Erfassungssystem, welche ein robotisches Gerät („Roboter“) verwenden, das Kameras und einen Arm aufweist (vgl. geltende Beschreibung, S. 1, erster Abs.).
Gemäß der Beschreibungseinleitung sei zur Verbesserung der Arbeitseffizienz und zur Ersparnis von Arbeitskosten ein Rezeptionssystem zum Identifizieren von Besuchern und zum Geben von Informationen an diese entwickelt worden (vgl. geltende Beschreibung, S. 1, zw. Abs.). In den aus dem Stand der Technik bekannten Rezeptionssystemen fehle dem verwendeten Roboter die Funktion zum Identifizieren eines Besuchers, was die Bewegung des Roboters auf eine standardisierte Handlung beschränke. Das Gesichtsbild eines Besuchers müsse im Voraus registriert sein, um die Gesichtserkennung eines Besuchers durchführen zu können oder der Besucher werde dazu gebracht, stehen zu bleiben, weswegen die Bildaufnahme an einem Rezeptionsschalter durchgeführt werden müsse (vgl. geltende Beschreibung, S. 1, dr. Abs. – S. 3, zw. Abs.).
Als Aufgabe wird in der geltenden Beschreibung angegeben, die Bildaufnahme des Gesichtsbilds eines Besuchers durchführen zu können, ohne dass sich der Besucher der Bildaufnahme bewusst wird, und das Gesichtsbild eines Besuchers von vorne zu erfassen und die Genauigkeit der Gesichtserkennung verbessern zu können (vgl. geltende Beschreibung, S. 3, dr. Abs.).
Die Aufgabe soll durch ein Gesichtsbild-Erfassungsverfahren gemäß Anspruch 1 und durch ein Gesichtsbild-Erfassungssystem gemäß Anspruch 2 gelöst werden.
2. Als Fachmann sieht der Senat einen Diplomingenieur der Fachrichtung Automatisierungstechnik, Robotik oder Elektrotechnik an, der über Berufserfahrung in der Entwicklung robotischer Systeme verfügt.
Der so definierte Fachmann legt dem Anspruchsgegenstand das folgende Verständnis zugrunde:
Der bei dem Gesichtsbild-Erfassungsverfahren und -system verwendete Roboter weist eine Kamera, einen Arm und einen Händeschüttel-Sensor auf (vgl. Merkmale M1, M1.1, M1.2, Mc1; N1, N1.1, N1.2, Nc1). Aus den in den Merkmalen Mc2 und Mc3, bzw. Nc2 und Nc3 gemachten Angaben zur Überprüfung der Ähnlichkeit des aufgenommenen Gesichtsbilds mit einem Klassenbild ergibt sich, dass entweder der Roboter selbst oder eine den Roboter steuernde Einheit (vgl. Fig. 2 u. 3: Roboter-Überwachungseinheit, Roboter-Unterstützungseinheit) eine bildanalysierende Einheit aufweist.
Gemäß der Anspruchsformulierung handelt es sich bei der Kamera 21a des Roboters und der stationären Überwachungskamera 4 um zwei verschiedene Kameras. Dabei ermittelt die stationäre Überwachungskamera 4 den Abstand zwischen dem Roboter und der Zielperson (vgl. Merkmale Mb2, Nb2), während zur Erfassung der Gesichtsbilder die Kamera 21a des Roboters zum Einsatz kommt, welche durch die Signale eines Händeschüttel-Sensors des Roboters ausgelöst wird (Merkmale Mc1, Nc1). Der Roboter kann somit mit der von der Überwachungskamera ermittelten Ortsinformation so positioniert werden, dass mit der robotereigenen Kamera Gesichtsbilder aufgenommen werden können, welche für eine Ermittlung von Ähnlichkeiten geeignet sind, da durch das Händeschütteln die Zielperson in eine geeignete Position gebracht worden ist. Durch die Aufnahme einer vorbestimmten Anzahl von Gesichtsbildern während des Händeschüttelns kann das gesamte Gesichtsbild des Besuchers von vorne erhalten werden, was zur Verbesserung der Genauigkeit beiträgt (vgl. geltende Beschreibung, S. 26, fünfter Abs.). Die erhaltenen Gesichtsbilder werden einem Ähnlichkeitsvergleich unterzogen und schließlich wird ein erhaltenes Gesichtsbild in einer Datenbank gespeichert (vgl. Merkmale Mc3, Nc3, Md, Nd).
3. Der Erteilungsantrag liegt im Rahmen der ursprünglichen Offenbarung (§ 38 PatG).
a) Die Merkmale der geltenden Ansprüche sind durch die ursprünglichen Patentansprüche sowie die ursprünglich eingereichte Beschreibung mit den Figuren 1 bis 6 als zur Erfindung zugehörend offenbart: Die Ansprüche 1 und 2 basieren auf den ursprünglichen Ansprüchen 1, 2 und 5 i. V. m. den Figuren 4 und 6 und Seite 3, zweiter und dritter Absatz, Seite 4, zweiter Absatz, Seite 4, letzter Absatz bis Seite 5, erster Absatz, Seite 13, zweiter und dritter Absatz, Seite 22, dritter und vierter Absatz, Seite 23, dritter und fünfter Absatz, Seite 24, erster und vierter Absatz sowie vorletzter und letzter Satz, Seite 25, zweiter und vierter Absatz, Seite 26, vierter Absatz, letzter Satz, Seite 26, letzter Absatz und Seite 34, fünfter Absatz der ursprünglich eingereichten Beschreibung. Anspruch 3 ist offenbart durch den ursprünglichen Anspruch 7.
b) Die Änderungen in der Beschreibung sind zulässig. Der relevante Stand der Technik wurde in der Beschreibungseinleitung gewürdigt und die Beschreibung wurde an das geltende Patentbegehren angepasst.
4. Der Gegenstand des Patentanspruchs 1 ist neu gegenüber dem im Verfahren befindlichen Stand der Technik (§ 3 PatG).
Druckschrift D1 beschreibt ein Verfahren zur Erfassung einer Zielperson, das einen Roboter (humanoid robot ASKA) mit mehreren Kameras (two CCD cameras) und mehreren Armen verwendet (vgl. Fig. 2 u. Abschnitt 2.1 Hardware configuration / Merkmale M1, M1.1, M1.2). Mit einem Personen-Finde-Modul wird eine Zielperson gemäß Merkmal Ma detektiert (vgl. S. 308, Abschnitt 4.1 Person Finder Module). Der Roboter kann eine Grußgeste mit der Hand ausführen (vgl. S. 306, re. Sp., Z. 3 - 5, S. 307, re. Sp. Abschnitt 3 Interaction Overview, S. 309, re. Sp. S. 310, li. Sp., Z. 2, Abschnitt 4.4 Body Gesture Controller Module / Merkmal Mb). Ein Händeschütteln wird vom Fachmann als Grußgeste mitgelesen (teilweise Merkmal Mb1, ohne dass die Ortsinformation von einer stationären Überwachungskamera stammt). Die Druckschrift gibt keine Hinweise darauf, Gesichtsbilder aufzunehmen und aufgenommene Gesichtsbilder einem Ähnlichkeitsvergleich mit zuvor aufgenommenen Gesichtsbildern zu unterziehen oder eine zusätzliche stationäre Überwachungskamera zur Ermittlung von Ortsinformationen oder einen Händeschüttelsensor einzusetzen (Merkmale M0, Mb2, Mc1, Mc2, Mc3, Md fehlen). Insbesondere ist das am Roboter angebrachte Lasersystem (Laser Range Finder), das zur Ortung der Zielperson benutzt wird (vgl. S. 307, li. Sp., zw. Abs, vorle. u. le. Satz; S. 308, li. Sp., Abschnitt 4.1.1), nicht als eine stationäre Überwachungskamera anzusehen.
Druckschrift D2 offenbart ein Bildverarbeitungsverfahren, bei dem die Bilder einer stationären Überwachungskamera (stationary surveillance camera) zur Lokalisation mehrerer Roboter in einer Betriebsumgebung verwendet werden (vgl.
Abstract, fünfter u. sechster Satz). Jeder der Roboter ist mit einer eigenen Kamera ausgerüstet (vision cameras), zusätzlich gibt es eine Überwachungskamera (vgl. S. 377, li. Sp., Abschnitt II. Research Objective, Fig. 2 / Merkmale M1, M1.1). Diese Überwachungskamera wird für die Ortung der Roboter verwendet, nicht jedoch für die Ermittlung von Ortsinformation bezüglich eines Zielobjekts (vgl. S. 378, re. Sp., zw. Abs.). Zur präzisen Ortung eines Zielobjekts schlägt Druckschrift D2 ergänzend vor, die Bilder benachbarter Roboter zu verwenden (vgl. S. 379, li. Sp., zw. Abs., vorle. Satz). Damit gibt Druckschrift D2 gerade keinen Hinweis darauf, eine Zielperson mit einer stationären Überwachungskamera zu erfassen, wie es in Merkmal M0 gefordert ist, und diese Ortsinformation wie in Merkmal Mb2 gefordert weiterzuverwenden. Vielmehr gibt Druckschrift D2 an, dass die Bilder der Überwachungskamera allein für die Aufgabenplanung der mehreren Roboter verwendet werden, während für die Positionierung des einzelnen Roboters relativ zu einem Ziel oder auch relativ zu einem anderen Roboter jeweils die Bilder ausgewertet werden, die die Kamera des Roboters selbst ermittelt hat (vgl. S. 377, li. Sp., Abschnitt II. Research Objective, letzter Satz). Damit ist Druckschrift D2 zwar zu entnehmen, dass zusätzlich zu einer am Roboter angebrachten Kamera, d. h. einer Kamera gemäß Merkmal M1.1, eine stationäre Überwachungskamera zum Einsatz kommen kann. Diese wird jedoch allein dazu verwendet, mehrere Roboter in einem größeren Arbeitsbereich zueinander zu koordinieren (vgl. auch S. 378, re. Sp., letzter Abs., dr. u. vierter Satz); einen Hinweis darauf, dass die stationäre Überwachungskamera auch dazu verwendet werden soll, eine Zielperson zu erfassen und deren Position relativ zu einem Roboter ermitteln, ist Druckschrift D2 nicht zu entnehmen. Die Druckschrift macht ferner keine Angaben zur eigentlichen Aktion der Roboter, zu einem Händeschütteln oder zu einem Ähnlichkeitsvergleich von erfassten Gesichtsbildern, so dass die Merkmale M0, M1.2, Ma, Mb, Mc, Mb1, Mb2, Mc1, Mc2, Mc3, Md fehlen.
Druckschrift D3 beschreibt einen Roboter (receptionist robot), der Personen im Raum identifizieren kann und dafür mit zwei Kameras ausgestattet ist (vgl. S. 402,
Abstract u. Introduction, erster Abs., Fig. 1b / Merkmale M1, M1.1, Ma), welche Gesichtsbilder einer Zielperson aufnehmen (vgl. S. 1403, li. Sp., 2.1 Robots at a party / Merkmal Mc). Bei der Gesichtsbilderkennung wird das aufgenommene Gesichtsbild mit bereits registrierten Gesichtern verglichen, was als ein Berechnen einer Ähnlichkeit des aufgenommenen Gesichtsbilds zu zuvor registrierten Gesichtsbildern zu verstehen ist (vgl. S. 1405, re. Sp., 3.2 Vision: Face Identification Module, zw. u. dr. Abs.: … calculates its distance d to each registered face…, discrimination matrix / teilweise Merkmale Mc2, Mc3, ohne Angaben zur Anzahl der Bildaufnahmen oder zur Erstellung eines Klassenbilds und ohne Wiederholen der Bildaufnahme). Schließlich wird ein erhaltenes Gesichtsbild in einer Datenbank für Besucherinformationen abgespeichert (vgl., S. 1403, li. Sp., vorle. Abs. i. V. m. S. 1407, li. Sp., zw. Abs. / Merkmal Md). Die Druckschrift macht keine Angaben zu einem Arm des Roboters und einem Bewegen eines Arms zum Zwecke des Händeschüttelns mit einer Zielperson, ebenso ist keine Überwachungskamera außerhalb des Roboters beschrieben (Merkmale M1.2, Mb, M0, Mb1, Mb2, Mc1 fehlen).
Druckschrift D4 offenbart einen Roboter, der seinen Arm auf eine Zielperson zubewegen kann und dazu u. a. mit einem optischen Sensor ausgestattet ist (vgl. S. 178, li. Sp., Z. 3 - 5, Fig. 1 u. 2 / Merkmale M1, M1.1, M1.2). Die Druckschrift befasst sich jedoch nicht mit einem Verfahren zur Gesichtsbild-Erfassung, sondern mit der Analyse des Roboterverhaltens; dafür sind mehrere Überwachungskameras im Raum installiert (vgl. S. 179, Abschnitt 3.2 Measurement of Body Movements), welche die mit Markern versehenen Testpersonen und den mit Markern versehenen Roboter (vgl. Fig. 2 u. 5) detektieren können. Diese Überwachungskameras dienen dazu, den Arm des Roboters mithilfe der gewonnenen Ortsinformation genauer positionieren zu können. Eine Auswertung von Gesichtsbildern wird nicht beschrieben.
Druckschrift D5 befasst sich mit dem Problem wechselnder Lichtverhältnisse bei der Gesichtsbild-Erfassung von Zielpersonen durch einen Roboter, welcher eine Kamera aufweist (vgl. Abstract, Abs. [0116] / Merkmale M1, M1.1). Aus den aufgenommenen Bildern wird ein Gesichtsbild ermittelt und somit eine Zielperson detektiert (vgl. Abs. [0117], Fig. 3, Schritt S205 / Merkmale Ma, Mc). Die Bildaufnahme erfolgt mehrfach und die erhaltenen Gesichtsbilder werden abgespeichert (vgl. Abs. [0011], Fig. 3, Schritt S203 / Merkmale Mc2, Md). Die Druckschrift gibt keine Hinweise auf ein Händeschütteln oder eine stationäre Überwachungskamera.
Druckschrift D6 offenbart einen Roboter, welcher mit einer Kamera und einem Arm ausgestattet ist und welcher eine Zielperson aus dem mit der Kamera (camera 2a; CCD camera 1102a) erhaltenen Gesichtsbild detektiert, wobei der Roboter auch Bewegungen zur Zielperson hin vollführt (vgl. Fig. 1, 4, 6 u. 11, Abs. [0023], [0024], [0043], [0068] / Merkmale M1, M1.1, M1.2, Ma, Mc). Beschrieben wird auch ein taktiler Sensor (Tactile information input device 2d, 2e, 2f i. V. m. arm movement detection unit 4f i. V. m. contact information unit 4d; tactile detector 1104), der ein Händeschütteln detektiert, allerdings ohne dass dieses Händeschütteln als Auslöser der Aufnahme des Gesichtsbilds ausgenutzt wird (vgl. Abs. [0016], [0023], [0024], [0027], [0029], [0043], [0045], [0066] / teilweise Merkmal Mc1). Um ein Händeschütteln anbieten zu können, muss der Roboter den Arm auf die Zielperson zu bewegen, was erst nach Annäherung des Roboters an die Zielperson sinnvoll ist (vgl. Fig. 18, Abs. [0029], [0068] / Merkmal Mb1). Da Benutzer wiedererkannt werden können, liest der Fachmann mit, dass eine vorbestimmte Anzahl von Gesichtsbildern erfasst wird und erhaltene Gesichtsbilder in einer Datenbank abgespeichert werden (vgl. Abs. [0032], [0062], Fig. 16 / Merkmale Mc2, Md). Die Druckschrift offenbart keine stationäre Überwachungskamera und keinen Ähnlichkeitsvergleich mit einem Klassenbild (Merkmale M0, Mb2, Mc3 fehlen).
Druckschrift D7 beschreibt einen Roboter, der mit einer Kamera und einem Arm ausgestattet ist und ein Verfahren zur Gesichtsbild-Erfassung durchführt. (vgl. S. 3, Face recognition, S. 1, erster Abs. / Merkmale M1, M1.1, M1.2, Ma). Es er- folgt eine Bildaufnahme und der Fachmann liest dabei mit, dass die erhaltenen Gesichtsbilder in einer Datenbank für Besucherinformationen gespeichert werden, da andernfalls keine Wiedererkennung von bereits vorher registrierten Personen möglich wäre (Merkmale Mc, Md). Der Roboter kann ein Händeschütteln ausführen (Merkmal Mb, Mb1). Zu einer stationären Überwachungskamera, welche Ortsinformation zur Zielperson gewinnt, oder zu einem Händeschüttelsensor werden keine Angaben gemacht (Merkmale M0, Mb2, Mc1 fehlen).
Gemäß Druckschrift D8 nähert sich ein Roboter einem Menschen, gibt die Hand und erkennt das Händeschütteln eines Menschen über einen taktilen Sensor (vgl. S. 4, erster Abs., Fig. 2, S. 5, le. Abs., S. 6, erster Abs. / Merkmale M1, M1.2, Mb); diese Druckschrift liegt jedoch weiter ab, da der beschriebene Roboter Personen nicht anhand einer Gesichtsbild-Erfassung erkennt, sondern ID Etiketten (ID tags) zur Identifikation verwendet (vgl. Abschnitt 2.2 Software Architecture, Fig. 2).
Druckschrift D9 offenbart einen Roboter, der ein Gesichtsbild-Erfassungsverfahren durchführt und über eine Kamera (CCD camera 120) und mehrere Arme verfügt (vgl. Abs. [0037], [0043], Fig. 1 - 4 / Merkmale M1, M1.1, M1.2). Das Detektieren einer Zielperson erfolgt auf Basis des von der Kamera erfassten Gesichtsbilds, wofür das Durchführen einer Bildaufnahme des Gesichtsbilds erforderlich ist (vgl. Abs. [0090], erster Satz, Fig. 10 - 12 / Merkmal Mc). Da sich die relativen Positionen zwischen dem Roboter und der Zielperson verändern und die Zielperson während der Interaktion im Blick behalten werden soll, muss sich der Roboter immer in der Nähe der Zielperson aufhalten, also die Zielperson detektieren und sich der Zielperson immer wieder annähern (vgl. Abs. [0009] / Merkmal Ma). Das erhaltene Gesichtsbild wird ebenfalls in einer Datenbank abgespeichert, wie in Merkmal Md gefordert (vgl. Abs. [0128]). Die angegebene Unterteilung in eine Lernphase und eine Erkennungs-Phase ist als ein Hinweis auf einen Ähnlichkeitsvergleich zu verstehen (vgl. Abs. [0091] - [0094] / teilweise Merkmal Mc3, ohne expliziten Vergleich mit einem Klassenbild und Angaben zur Häufigkeit der Bildaufnahme). Be- schrieben ist auch ein Sensor, welcher Berührung und Druck detektiert und somit ein Händeschütteln erfassen kann (vgl. Abs. [0043]). Die Druckschrift gibt keine Hinweise auf eine stationäre Überwachungskamera, welche Ortsinformationen liefert, oder darauf, dass ausgelöst durch den Händeschüttelsensor eine Bildaufnahme erfolgt (Merkmale M0, Mb1, Mb2, Mc1 fehlen).
Die Druckschriften D10, D11 und D12 liegen weiter ab als die vorgenannten Druckschriften:
Druckschrift D10 betrifft einen Roboter mit Display zur Anzeige von Besucher führenden Informationen. Druckschrift D11 offenbart einen Roboter, der mit Hilfe einer externen Kontrollstation bewegt wird, eine optische Detektionseinheit und einen Arm aufweist und für Rezeptionsarbeiten herangezogen wird. Beide Druckschriften geben keine Hinweise auf eine Gesichtsbild-Erfassung oder ein Armausstrecken zum Händeschütteln mit einer Zielperson auf Basis von Ortsinformationen, die von einer externen Überwachungskamera geliefert werden.
Druckschrift D12 beschreibt ein Verfahren zur Gesichtsbild-Erkennung, das auf einem Mustervergleich eines zu untersuchenden Gesichtsbildes mit Gesichtsbildern, welche vorab aufgenommen und gespeichert worden sind, basiert (vgl. Abs. [0013], [0032]). Dabei wird das Gesichtsbild-Muster, das dem aufgenommenen Gesichtsbild am nächsten kommt, zur Erkennung herangezogen (vgl. Abs. [0016], [0017], [0028]). Dies ist als ein Berechnen einer Ähnlichkeit gemäß Merkmal Mc3 anzusehen. Die Druckschrift befasst sich nicht mit einem Roboter und gibt auch keinerlei Hinweise auf eine Überwachungskamera zur Positionierung.
Keine der im Verfahren befindlichen Druckschriften offenbart ein Verfahren mit sämtlichen in Anspruch 1 geforderten Merkmalen. Insbesondere ist es aus den Druckschriften nicht bekannt, mit Hilfe einer stationären Überwachungskamera eine Zielperson zu erfassen (Merkmal M0), einen Roboterarm anhand dieser Ortsinformation auf die Zielperson zu zu bewegen und ein Händeschütteln anzu- bieten, um mit einer robotereigenen Kamera während des Händeschüttelns Gesichtsbilder erfassen zu können (Merkmal Mb1 i. V. m. Merkmal Mc1). Der Gegenstand des geltenden Anspruchs 1 ist somit neu gegenüber dem im Verfahren befindlichen Stand der Technik.
Weiterer relevanter Stand der Technik ist nicht bekannt geworden.
Der Gegenstand des Patentanspruchs 1 ist daher neu.
5. Der Gegenstand des Patentanspruchs 1 ergibt sich für den Fachmann nicht in naheliegender Weise aus dem im Verfahren befindlichen Stand der Technik und beruht auf einer erfinderischen Tätigkeit (§ 4 PatG).
Wie in Abschnitt II. 4. erläutert, ist keiner der im Verfahren befindlichen Schriften ein Hinweis darauf zu entnehmen, eine stationäre Überwachungskamera dazu zu nutzen, einen Roboterarm zur Zielperson in einen bestimmten Abstand zu bringen, um ein Händeschütteln anzubieten, so dass nachfolgend mit der robotereigenen Kamera während des Händeschüttelns eine Anzahl Gesichtsbilder von der Zielperson aufgenommen werden kann.
Druckschrift D1 offenbart zwar verschiedene optische Systeme (laser range finder, stereo camera system) zur Erfassung von mit dem Roboter interagierenden Zielpersonen, diese optischen Systeme sind aber sämtlich am Roboter selbst angeordnet. Da die Druckschrift keine Hinweise darauf gibt, eines der optischen Systeme stationär anzuordnen oder ein Händeschütteln zu nutzen, um währenddessen Gesichtsbilder der Zielperson aufzunehmen, ergibt sich für den Fachmann ausgehend von dieser Druckschrift keine Veranlassung, das dort offenbarte Verfahren entsprechend zu ändern oder zu ergänzen.
Druckschrift D3, die einen als Rezeptionist arbeitenden Roboter offenbart, gibt ebenfalls keine Hinweise auf eine separate Überwachungskamera oder einen Händeschüttelsensor, so dass auch ausgehend von dieser Druckschrift der Fachmann keine Anregungen erhält, das Verfahren anspruchsgemäß auszugestalten.
Druckschrift D6 ist hinsichtlich der Ausgestaltung eines Händeschüttelsensors als nächstliegender Stand der Technik anzusehen. Auch ausgehend von dieser Druckschrift erhält der Fachmann keine Anregung, eine stationäre Überwachungskamera, wie vorliegend beansprucht, zusätzlich zur robotereigenen Kamera vorzusehen und zur Verbesserung der Bildqualität die Bildaufnahme während eines Händeschüttelns ausgelöst durch den Händeschüttelsensor zu starten.
Die weiteren Druckschriften geben, wie in Abschnitt II. 4. ausgeführt, dem Fachmann ebenfalls keine Anregungen zusätzlich zu robotereigenen Kameras, welcher der Aufnahme von Gesichtsbildern dienen, eine Überwachungskamera gemäß Merkmal M0 vorzusehen und die Aufnahme des Gesichtsbilds einer Zielperson während eines Händeschüttelns mit dem Roboter vorzunehmen, wie in Merkmal Mc1 beansprucht.
Aus dem Fachwissen sind zwar Überwachungskameras bekannt, das allgemeine Fachwissen gibt dem Fachmann aber keine Anregungen, in der beanspruchten Weise verschiedene Kameras und einen Händeschüttelsensor einzusetzen, um die Qualität der aufgenommenen Gesichtsbilder zu verbessern.
Damit führt weder eine gemeinsame Betrachtung der im Verfahren befindlichen Druckschriften noch eine Ergänzung der Lehren dieser Druckschriften mit dem Wissen des Fachmanns in naheliegender Weise zum Gegenstand des geltenden Anspruchs 1. Das beanspruchte Verfahren geht somit über das übliche fachmännische Handeln, ausgehend von den Lehren der betrachteten Druckschriften D1 bis D12 und unter Einbeziehung des Fachwissens hinaus.
Der Gegenstand des Anspruchs 1 beruht somit auf einer erfinderischen Tätigkeit.
6. Der Gegenstand des nebengeordneten Anspruchs 2 ist ebenfalls patentfähig.
Anspruch 2 ist auf ein Gesichtsbild-Erfassungssystem gerichtet und weist mit den Merkmalen N1 bis Na, Nb bis Nd Merkmale auf, welche den Merkmalen M1 bis Md des auf ein Verfahren gerichteten Anspruchs 1 inhaltlich eng entsprechen; zusätzlich werden in den Merkmalen Na, Na1 und Na2 die Einheiten des Gesichtsbild-Erfassungssystems (Bewegungs-Überwachungseinheit, Besucher-Detektor, Befehls-Generator, Gesichtsbild-Registrierungseinheit) benannt, welche für die Ausführung der beanspruchten Verfahrensschritte vorgesehen sind. Für den Vergleich mit dem Stand der Technik ist hinsichtlich der Merkmale N1 bis Na, Nb bis Nd auf die Ausführungen zum Anspruch 1 in den Abschnitten II. 4. und II. 5. zu verweisen, die hier in gleicher Weise gelten. Die in den Merkmalen Na, Na1 und Na2 hinzugefügten gegenständlichen Merkmale ändern an der Bewertung der Druckschriften ebenfalls nichts. Somit offenbart auch keine der im Verfahren befindlichen Druckschriften ein Gesichtsbild-Erfassungssystem mit sämtlichen in Anspruch 2 geforderten Merkmalen, da es aus den Druckschriften nicht bekannt ist, mit Hilfe einer stationären Überwachungskamera einen Besucher zu detektieren (Merkmal N0), einen Roboterarm anhand dieser Ortsinformation auf den Besucher zu zu bewegen und ein Händeschütteln anzubieten, um mit einer robotereigenen Kamera während des Händeschüttelns Gesichtsbilder erfassen zu können (Merkmal Nb1 i. V. m. Merkmal Nc1). Der Gegenstand des geltenden Anspruchs 2 ist somit ebenfalls neu gegenüber dem im Verfahren befindlichen Stand der Technik. Wie zu Anspruch 1 ausgeführt, beruht das Verfahren zur Gesichtsbild-Erfassung auch auf einer erfinderischen Tätigkeit; daher ist auch ein Gesichtsbild-Erfassungssystem, das mit den beanspruchten gegenständlichen Merkmalen das entsprechende Verfahren ausführen soll und mit einer Überwachungskamera und einer robotereigenen Kamera sowie einem Händeschüttelsensor ausgestattet ist, dem Fachmann durch den Stand der Technik, auch in Verbindung mit dem allgemeinen Fachwissen, nicht nahegelegt.
7. Der abhängige Anspruch 3 betrifft eine über das Selbstverständliche hinausgehende Ausgestaltung des Gegenstands nach Anspruch 2. Der abhängige Anspruch ist daher ebenfalls patentfähig.
8. Da die vorgelegten geltenden Unterlagen auch den weiteren Voraussetzungen zur Patenterteilung (§§ 1, 2, 5, 34 PatG) genügen, war auf die Beschwerde der Anmelderin der Zurückweisungsbeschluss der Prüfungsstelle für Klasse G 06 K des Deutschen Patent- und Markenamts aufzuheben und ein Patent zu erteilen.
9. Der Beschluss konnte ohne mündliche Verhandlung ergehen, da dem Antrag des Anmelders vollumfänglich stattgegeben wurde.
III.
Rechtsmittelbelehrung Gegen diesen Beschluss steht den am Beschwerdeverfahren Beteiligten das Rechtsmittel der Rechtsbeschwerde zu. Da der Senat die Rechtsbeschwerde nicht zugelassen hat, ist sie nur statthaft, wenn gerügt wird, dass
1. das beschließende Gericht nicht vorschriftsmäßig besetzt war, 2. bei dem Beschluss ein Richter mitgewirkt hat, der von der Ausübung des Richteramtes kraft Gesetzes ausgeschlossen oder wegen Besorgnis der Befangenheit mit Erfolg abgelehnt war, 3. einem Beteiligten das rechtliche Gehör versagt war, 4. ein Beteiligter im Verfahren nicht nach Vorschrift des Gesetzes vertreten war, sofern er nicht der Führung des Verfahrens ausdrücklich oder stillschweigend zugestimmt hat,
5. der Beschluss aufgrund einer mündlichen Verhandlung ergangen ist, bei der die Vorschriften über die Öffentlichkeit des Verfahrens verletzt worden sind, oder
6. der Beschluss nicht mit Gründen versehen ist.
Die Rechtsbeschwerde ist innerhalb eines Monats nach Zustellung des Beschlusses beim Bundesgerichtshof, Herrenstr. 45 a, 76133 Karlsruhe, durch einen beim Bundesgerichtshof zugelassenen Rechtsanwalt als Bevollmächtigten schriftlich einzulegen.
Wickborn Kruppa Dr. Otten-Dünnweber Dr. Flaschke Hu