Wenn eine Künstliche Intelligenz ein neues Kapitel Harry Potter schreibt

Die Leute von Botnik (a community of writers, artists and developers collaborating with machines to create strange new things) haben eine Künstliche Intelligenz mit allen sieben Harry-Potter-Bänden trainiert und anschließend ein Kapitel schreiben lassen. Mein Lieblingssatz: „Ron’s Ron shirt was just as bad as Ron himself.“




Noch ein lustig schräges KI-Projekt von Botnik: „Advice about teenagers written using a predictive text keyboard trained on ‚Dear Abby‘ advice columns about teenagers“. Wer macht bitte eine deutsche Version mit Dr. Sommer?

(via The Guardian)

Katzen, Schuhe, Handtaschen und Fassaden zeichnen und von künstlicher Intelligenz rendern lassen

pix2pix

Mein Lieblingsprokrastionstool der Woche. Kennt ihr wahrscheinlich längst, Twitter und Facebook waren die letzten Tage voll damit. Trotzdem jetzt auch noch hier, fürs Archiv quasi: Mit pix2pix kann man im Browser Katzen, Schuhe, Handtaschen und Fassaden zeichnen (in meinem Fall eher kritzekrakeln…) und danach von einer darauf trainierten KI rendern lassen. Programmiert hat das Teil Christopher Hesse, der mir jetzt ein paar Stunden meines Leben schuldet.

(Quelle: Keine Ahnung wo zuerst, aber nochmal von @schoenhaesslich mit der Nase drauf gestoßen worden | Bild: @thismanslife, weil lustiger als meine)

Künstliche Intelligenz im Vergleich: Alexa vs. Siri in 15 Sekunden

alexa-vs-siri

Nach Amazon Echo vs. Google Home hier die digitalen Assistenten Alexa (Amazon) vs. Siri (Apple) im 15 Sekunden Vergleich. Alexa mag vielleicht den größeren Funktionsumfang haben, aber der Punkt für Persönlichkeit und menschliches Verhalten geht definitiv an Siri.


Direktlink: Alexa vs. Siri

Amazon Alexa spricht aus singendem Roboter-Fisch


Direktlink: The Future (via Maik)

Ob Siri, Google Now, Cortana (Microsoft) oder Alexa (Amazon): Um uns den Alltag zu erleichtern, setzen die großen Player zunehmend auf digitale Assistenten. Das funktioniert mal besser mal schlechter. Was die Künstlichen Intelligenzen dagegen eint, ist ihre kalte Gesichtslosigkeit. Zumindest für Amazons Assistenz-Lautsprecher Alexa hat Brian Kane mit seinem Hack Abhilfe geschaffen. Mit dem zuvor singenden Gummifisch kann man nun prima über Wetter und Nachrichten plaudern und vieles mehr. Die Zukunft wird großartig!

NeuralTalk and Walk – Mit einem neuronalen Netzwerk spazieren gehen

Kyle McDonald hat bei einem Spaziergang in Amsterdam ein neuronales Netzwerk mit dem Live-Feed einer Webcam gefüttert und es in Echtzeit die Umgebung analysieren zu lassen. Ziemlich beeindruckend:


Direktlink: NeuralTalk and Walk (via prosthetic knowledge)

Andrej Karpathy’s „NeuralTalk“ code github.com/karpathy/neuraltalk2 slightly modified to run from a webcam feed. I recorded this live while walking near the bridge at Damstraat and Oudezijds Voorburgwal in Amsterdam. All processing is done on my 2013 MacBook Pro with the NVIDIA 750M and only 2GB of GPU memory. I’m walking around with my laptop open pointing it at things, hence the shaky footage and people staring at themselves. The openFrameworks code for streaming the webcam and reading from disk is available at gist.github.com/kylemcdonald/b02edbc33942a85856c8