Bilderkennung wie auf Psychedelika: Wenn Google künstliche neuronale Netze „halluzinieren“ lässt

Inceptionism-5

Bei Google haben sie künstliche neuronale Netze, wie bei Google Fotos zur Bilderkennung genutzt werden, „halluzinieren“ lassen. Die Ergebnisse finde ich ziemlich beeindruckend, wundere mich aber ein bisschen, warum unter den seltsamen Kreaturen auf den Fotos keine elektrischen Schafe zu finden sind.

Inceptionism-1

Inceptionism-3

Inceptionism-4

Inceptionism-2

Well, we train networks by simply showing them many examples of what we want them to learn, hoping they extract the essence of the matter at hand (e.g., a fork needs a handle and 2-4 tines), and learn to ignore what doesn’t matter (a fork can be any shape, size, color or orientation) …

Instead of exactly prescribing which feature we want the network to amplify, we can also let the network make that decision. In this case we simply feed the network an arbitrary image or photo and let the network analyze the picture. We then pick a layer and ask the network to enhance whatever it detected. Each layer of the network deals with features at a different level of abstraction, so the complexity of features we generate depends on which layer we choose to enhance. For example, lower layers tend to produce strokes or simple ornament-like patterns, because those layers are sensitive to basic features such as edges and their orientations.

(via MeFi)

Ein Gedanke zu „Bilderkennung wie auf Psychedelika: Wenn Google künstliche neuronale Netze „halluzinieren“ lässt

Schreibe einen Kommentar