Katzen, Schuhe, Handtaschen und Fassaden zeichnen und von künstlicher Intelligenz rendern lassen

pix2pix

Mein Lieblingsprokrastionstool der Woche. Kennt ihr wahrscheinlich längst, Twitter und Facebook waren die letzten Tage voll damit. Trotzdem jetzt auch noch hier, fürs Archiv quasi: Mit pix2pix kann man im Browser Katzen, Schuhe, Handtaschen und Fassaden zeichnen (in meinem Fall eher kritzekrakeln…) und danach von einer darauf trainierten KI rendern lassen. Programmiert hat das Teil Christopher Hesse, der mir jetzt ein paar Stunden meines Leben schuldet.

(Quelle: Keine Ahnung wo zuerst, aber nochmal von @schoenhaesslich mit der Nase drauf gestoßen worden | Bild: @thismanslife, weil lustiger als meine)

Künstliche Intelligenz im Vergleich: Alexa vs. Siri in 15 Sekunden

alexa-vs-siri

Nach Amazon Echo vs. Google Home hier die digitalen Assistenten Alexa (Amazon) vs. Siri (Apple) im 15 Sekunden Vergleich. Alexa mag vielleicht den größeren Funktionsumfang haben, aber der Punkt für Persönlichkeit und menschliches Verhalten geht definitiv an Siri.


Direktlink: Alexa vs. Siri

Amazon Alexa spricht aus singendem Roboter-Fisch


Direktlink: The Future (via Maik)

Ob Siri, Google Now, Cortana (Microsoft) oder Alexa (Amazon): Um uns den Alltag zu erleichtern, setzen die großen Player zunehmend auf digitale Assistenten. Das funktioniert mal besser mal schlechter. Was die Künstlichen Intelligenzen dagegen eint, ist ihre kalte Gesichtslosigkeit. Zumindest für Amazons Assistenz-Lautsprecher Alexa hat Brian Kane mit seinem Hack Abhilfe geschaffen. Mit dem zuvor singenden Gummifisch kann man nun prima über Wetter und Nachrichten plaudern und vieles mehr. Die Zukunft wird großartig!

NeuralTalk and Walk – Mit einem neuronalen Netzwerk spazieren gehen

Kyle McDonald hat bei einem Spaziergang in Amsterdam ein neuronales Netzwerk mit dem Live-Feed einer Webcam gefüttert und es in Echtzeit die Umgebung analysieren zu lassen. Ziemlich beeindruckend:


Direktlink: NeuralTalk and Walk (via prosthetic knowledge)

Andrej Karpathy’s „NeuralTalk“ code github.com/karpathy/neuraltalk2 slightly modified to run from a webcam feed. I recorded this live while walking near the bridge at Damstraat and Oudezijds Voorburgwal in Amsterdam. All processing is done on my 2013 MacBook Pro with the NVIDIA 750M and only 2GB of GPU memory. I’m walking around with my laptop open pointing it at things, hence the shaky footage and people staring at themselves. The openFrameworks code for streaming the webcam and reading from disk is available at gist.github.com/kylemcdonald/b02edbc33942a85856c8

Deep Dreaming Fear and Loathing in Las Vegas & „Deepdream on me“ von a-ha

deepdream-ahaMit #deepdream von Google, der Software zur Veranschaulichung der Arbeitsweise neuronaler Netze bei der Bilderkennung, lassen sich nicht nur faszinierende Bilder generieren, sondern auch Videos in ausgewachsene Horror-Trips morphen. Hier meine beiden Favoriten (bisher): Zuerst eine Szene aus Fear & Loathing, das sich dafür Faust auf Auge mäßig anbietet und danach noch eine kurze Sequenz aus „Take on me“ von a-ha.


Direktlink: Deep Dreaming Fear & Loathing in Las Vegas


Direktlink: A-ha Deep Dream

(via Mail & prosthetic knowledge)

Auf Twitch einem künstlichen neuralen Netzwerk beim Halluzinieren zuschauen

hallucinating-neural-twitch

Studierende vom Reservoir Lab der Uni Ghent zeigen bei Twitch eine KI beim Halluzinieren. Wovon sie „träumen“ soll wird von den Zuschauern vorgeschlagen. Inspiriert ist das Ganze von Googles Inceptionism, der halluzinierenden Bilderkennung.

The AI in question is an artificial neural network. It looks at images and classifies the objects it sees them into 1000 different categories.

Instead of using it for classification, we are showing it an image and asking it to modify it, so that it becomes more confident in what it sees. This allows the network to hallucinate. The image is continuously zooming in, creating an interesting kaleidoscopic effect.

Note that every image generated by the network is unique: nothing is ever repeated, and all images are generated in response to the viewers‘ suggestions. Nothing in the images is copied from somewhere. They are fully generated on the fly by whatever the neural network thinks makes this object this specific object