Kürzlich habe ich im Netz ein satirisch gemeintes Bild gesehen. Jemand habe sein Konterfei auf die Atemmaske drucken lassen, damit er auch so für die Gesichtserkennungssoftware identifizierbar bleibt.
Meine erste Begegnung mit Gesichtserkennung geht in die Zeiten von Googles Picasa zurück. Da hatte ich versucht meinen damaligen Bilderbestand nach Gesichtern ordnen zu lassen in der Hoffnung, ich könnte so die Bilder bestimmten Familienmitgliedern zuordnen. Damals war das noch nicht zuverlässig möglich. Und später habe ich dann in Lightroom und wo die Gesichtserkennung sonst auch noch aufgetaucht ist diese Funktion immer konsequent abgeschaltet. Ich wollte nicht noch mehr Daten zur Verfügung stellen.
Was inzwischen da möglich ist merkt man wenn man einen der Dienste ausprobiert die ein Versprechen rauszufinden, wer einem alles Bilder geklaut hat. Man kann auch einfach auf Googles inverse Bildersuche gehen und dort ein Bild eingeben dass man irgendwo im Netz stehen hat.
Das ist ja in dem einen oder anderen Zusammenhang sinnvoll, aber haben wir uns eigentlich überlegt, dass wird damit eigentlich Entwicklungsarbeit leisten die letztendlich dahin führt das die Maschinen sehen lernen. Zumindest den Teil des Sehens den wir als Mustererkennung bezeichnen können. Ist das schon sehen? Inwiefern geht das was wir tun wenn wir sehen über die Mustererkennung hinaus? Zum ersten geht es darum, dass wir, was wir sehen, immer mit dem kompletten Schatz an Erfahrung abgleichen den wir bis dato gesammelt haben. Das könnte ein entsprechend gefütterter Computer wohl auch leisten aber eben systematisch und nicht assoziativ, wie wir Menschen es meist tun.
Zum anderen gibt es den Anteil den wir meist mit Intuition bezeichnen würden. Wir reagieren auf ein Bild ohne wirklich zu wissen worauf wir eigentlich anspringen. Das ist das was Roland Barthes beim Betrachten von Bildern durch Menschen als punctum bezeichnet hat. Und bedeutet irgendein Detail oder Aspekt des Bildes der uns auf unerklärliche Art anspricht. Ob das Maschinen auch lernen können?
`The Photographers Galery´ in London hat zur Zeit ein sehr interessantes Projekt zu diesem Thema auf ihrer „Media Wall“ : Phillip Schmitt hat einen Computeralgorythmus namens COCO, der vom Microsoft 2014 dazu programmiert wurde, auf Bildern Dinge zu erkennen auf seine Bilder losgelassen (https://humans-of.ai/editorial/ ) und zeigt die Bilder zusammen mit denjenigen Bilder aus dem weiten Netz (v.a. Flickr) anhand denen der Algorythmus gelernt hat diese Objekte zu erkennen. So soll der Algorythmus entmystifizierte werden. Schmitt erklärt sein Projekt hier.
Die Maschine ist nicht intelligent sondern Sie hat nur dann wenn man ihr Daten füttert ein zunehmend bessere Fähigkeit der Mustererkennung, von der wir auch schon in moderneren Photoapparaten profitieren, die im Idiotenmodus das Motiv erkennen und ein entsprechendes „Motivprogramm“ auswählen.
Letztlich ist die Frage, ob wir es schaffen diese mächtigen Werkzeuge auch als solche zu benutzen, oder ob wir ihnen Macht über uns einräumen?
Recently I saw a suposedly satiricall picture on the net. Someone had his portrait printed on the breathing mask so that he could be identified by the face recognition software.
My first encounter with face recognition goes back to the times of Google’s Picasa. There I had tried to sort my collection of pictures by faces in the hope that I could assign the pictures to certain family members. At that time this was not yet possible. And later on I switched off this function in Lightroom and wherever face recognition appeared. I did not want to provide more data.
What is now possible you can see if you try one of the services that promise to find out who stole all your pictures. You can also just go to Google’s reverse image search and enter a picture that you have somewhere on the net.
This makes sense in one context or another, but did we think about, that this will be a development work which will lead to the machines learning to see? At least that part of seeing that we can call pattern recognition. Is that already seeing? To what extent does what we do, when we see go beyond pattern recognition? First of all, it’s about matching what we see with the full treasure trove of experience we’ve accumulated to date. A suitably fed computer could probably also do that, but systematically and not associatively, as we humans usually do.
On the other hand, there is the part that we would usually call intuition. We react to a picture without really knowing what we are actually jumping at when we look at pictures. This is what Roland Barthes called punctum. It means any detail or aspect of the image that appeals to us in an inexplicable way. Could machines learn this?
`The Photographers Galery’ in London has a very interesting project on this topic on their “Media Wall” : Phillip Schmitt has taken a computer algorithm called COCO, which was programmed by Microsoft 2014 to recognize things in pictures, applied it on his pictures and shows the pictures together with the pictures from the wide web (especially Flickr) from where the algorithm learned to recognize these objects. So the algorithm can be demystified. Schmitt explains his project here.
The machine is not intelligent, only when you feed it data, it has an increasingly better ability of pattern recognition, from which we already benefit in more modern cameras, which recognize the subject in `idiot mode´ and select an appropriate “motive-program”.
Ultimately, the question is whether we will be able to use these powerful tools as such, or whether we will give them power over us?
Translated with the help of www.DeepL.com/Translator
Eine Maschine kann sehr wohl intelligent sein. Mittlerweile leben wir in einer Zeit, in der es KI gibt und die ist schon sehr weit. Diese Maschinen werden nicht mehr durch Algorithmen gespeist, sondern sie suchen diese selbst. Bisher konnten die Maschinen nicht besser werden, als wir Menschen, da sie die Algorithmen von uns Menschen bekommen haben. Mit KI berechnen die Maschinen die Algorithmen selbst und werden daher viel besser als wir Menschen. Hier ein interessanter Link:
Welcome back, großer Unbekannter. Vielen Dank für den Link. Das ist sehr interessant. Ein anderes Beispiel dafür wie weit die KI inzwischen bestimmte menschliche Fähigkeiten überflügeln kann ist Schach. Da hat Alpha Zero von Google tatsächlich eine Revolution bewirkt. Bis dato wurden Computer mit den Schachpartien der Vergangenheit gefüttert und errechneten daraus die besten Züge. Alpha Zero hingegen hat sich das Spielen unabhägig von menschlichen Partien durch unzählige Siele gegen sich selbst beigebracht und überflügelt locker alle Menschen und Schachcomputer. Hier eine einigermaßen verständliche Erklärung für Interessierte:https://www.youtube.com/watch?v=GEztJEwUwDM
wichtige richtige Fragen, danke.
Hallo Rolf, ein sehr interessanter Beitrag heute, der mir sehr gefallen hat! LG Cornelia