Einer dieser grossartigen “15 Minuten über den Mittag schnell zusammengeschustert”-Aufbauten. Mal als Versuch das 115W Solarpanel nicht einfach am Boden stehend zu nutzen (und so die Abschattung ein bisschen zu minimieren). Ans Balkongeländer aussenliegend darf das Panel leider nicht, da hindert mich der Hausfrieden und die lokale Gesetzeslage. Das wurde mir sehr bereitwillig von dem lokalen Bauamt bei einem längeren Telefonat erklärt, weil das Erscheinungs- und Ortsbild stören würde. *grummel*
Item, angeschlossen daran ist eine 20Ah Batterie, die ich vor längerem Mal gebaut habe und bei mir zu Hause grösstenteils für alle Gerätschaften genutzt wird, welche via USB geladen werden können. Auch der Homeassistant auf einem Raspberry PI bezieht seinen Strom eigentlich immer über dieses Setup. Und wenn es mal knapp wird, lässt sich die Batterie auch über Netzstrom laden, was momentan im Winter der Fall ist. Im Sommer kriege ich die Batterie eigentlich nie leer, mit den Kleinverbrauchern.
Geplant ist längerfristig 300–600 Wp Balkon Solaranlage – Da der Balkon quasi keine Abschattung hat, ist er im Hochsommer ziemlich ungemütlich und mein plan ist derzeitig, mit den Panels ein bisschen für Schatten zu sorgen und den Schatten in Energie umzuwandeln.
From now on, we have to treat anything we see on the Internet as potential AI garbage. The picture gallery from an artist? The very cool sounding answer on Stackoverflow? This article in the newspaper? This short viral video? This book on Amazon? They are all potential AI garbage.
Ich habe bisher die ChatGPT und StableDiffusion Welle nur von aussen beobachtet, hatte aber über das Jahresende ein bisschen Zeit gefunden mich ein bisschen genauer damit zu beschäftigen. Andere sind da offenbar viel früher auf den Zug aufgesprungen – Wie Habi und David 😉
ChatGPT ist toll, aber meist missverstanden
Ich hatte einige tolle Gotcha-Momente als ich mit ChatGPT herumgespielt habe. Einer da war zum Beispiel als ich einfach mal von Englisch auf Deutsch gewechselt habe und der Bot da einfach mitgemacht hat.
Generell kann das Model über enorm viele Dinge Antwort geben. Ich denke solche Tools haben Zukunft, jedoch muss der Mensch dann noch nachbessern weil sonst laufen wir Gefahr in das Problem hineinzulaufen, das im anfänglichen Zitat erwähnt wird es könnte alles, das wir lesen, sehen oder hören potenziell generiert sein. Wie viel davon “sinnvoll” ist, bleibt dann dem Menschen überlassen das zu interpretieren.
Wichtig zu verstehen, und meiner Ansicht nach das grösste Missverständnis, wenn wir von ChatGPT reden. Es handelt sich um ein Text-Modell und kein Wissens-Modell. Es wird dir keine Fakten liefern. Hell es erfindet sogar Dinge – ChatGPT produces made-up nonexistent references (guter Thread übrigens).
Da sich ChatGPT eine Welt „vorstellt“ ist relativ viel möglich, zum Beispiel eine virtuelle Maschine zu erstellen. Das funktioniert manchmal und teilweise schlägt das wunderbar fehl.
Solange wir Tools wie ChatGPT als Helfer verstehen und nicht Menschen finden, das sei jetzt AI par excellence, die keine Fehler macht und das überall ohne Qualitätsprüfung der Ausgaben einbauen, sehe ich kein Problem.
StableDiffusion
Was für ein Rabbithole! Den Einstieg habe ich über Midjourney gemacht, in welcher ich die frei verfügbaren 25 Minuten relativ schnell durch hatte. Super interessant zu sehen, wie ein Chat-Interface genutzt wird, um mit dem Generator zu interagieren. Aber auch wichtig den andern Menschen zuzuschauen und von anderen Texteingaben zu lernen hilft schnell weiter zu kommen und schöne Resultate zu generieren.
Ich hab mir dann irgendwann InvokeAI lokal installiert und irgendwann auf einem bisschen leistungsfähigeren Mac. Nachdem ich bei AWS derzeit keine GPU Instanz kriegen kann. Hab ich es danach auf einem anderen Mac, der ein bisschen mehr Power hat, montiert. Eine dedizierte Grafikkarte würde viel bringen, mal schauen, ob ich irgendwo über so eine stolpere. Ich habe viel mit anderen Modellen herumgespielt und schnell gemerkt, dass jedes seinen eigenen “Dialekt” und Settings hat, die funktionieren. Einige können aus “schönes Wohnzimmer” richtig tolle Sachen machen, andere brauchen viel mehr Detailbeschreibung und reagieren nur auf präzise Keywords. Ich habe mir auch sehr kurz noch RunDiffusion angeschaut und war begeistert wie schnell und vergleichsweise günstig ich da an GPU-Zeit kam. Will für das aber lieber die Infrastruktur selbst “betreiben”
StableDiffusion ist ein ultraspannendes Konzept, bei welchem sich viele Abgründe öffnen, da nicht immer klar ist, mit welchem Bildmaterial die Modelle trainiert wurden. Es ist jedoch interessant, was mit eigentlich sehr moderater Hardware erträumt werden kann.
Und jetzt?
Technologie, die existiert, wird nicht einfach weggehen, das wissen wir spätestens seit IPv4 – Ich habe mir noch keine abschliessende Meinung über die Thematik gemacht. An der Microsoft Ignite 2019 habe ich einige Zeit mit Anand Raman welcher bei Microsoft die AI Efforts leitet, über die Problematik der Nachvollziehbarkeit dieser AI Modelle gesprochen, da das Trainingsmaterial teilweise aufgrund der Grösse nicht so einfach mal bereitgestellt werden kann (oder darf). Die schlüssigste Lösung, die wir damals besprochen haben, wäre Informationen über das Trainingsmaterial verifizierbar zu machen und das dann mit den Modellen zu veröffentlichen, um ein möglichst grosses Mass an Transparenz zu haben und bewusst mit Biases der Modelle umgehen zu können. Schlussendlich sind die Sprachmodelle auf Basis von Daten, die von Menschen erstellt wurden und wir sind inhärent befangen in unserer Handlung und Ausdrucksweise, selbst wenn wir uns dem bewusst sind.
The models encode many biases and stereotypes.
Well, sure they do. They model observed human’s language, and we humans are terrible beings, we are biased and are constantly stereotyping. This means we need to be careful when applying these models to real-world tasks, but it doesn’t make them less valid, useful or interesting from a scientiic perspective.
Aus meiner Sicht sind die Text- und Bild-Modelle spannend, da sie unter sehr permissiven Lizenzen veröffentlicht werden und auch deshalb so unglaublich schnell Anklang finden. Eine kritische Denkweise und Hinterfragung der Technologie ist meiner Meinung nach wie vor wichtig, vor allem wenn die Technologien irgendwann breit eingesetzt werden. Ich finde, dass es wichtig ist, die positiven Teile der Technologie zu sehen, sich jedoch auch den potenziellen Gefahren und Limitierungen dieser bewusst zu sein. Wer sich jetzt noch einen weiteren Deepdive geben will, dem empfehle ich den Artikel von Yoav Goldberg – Some remarks on Large Language Models, er geht dabei ebenfalls auf sehr viele reale Limitationen ein.
My main workstation is a Mac, and I tend to run many small tools via the command line. Over time I grew a bit bored with brew installing every even so small binary for using it for a while and then started collecting dust on my system and adding to keeping things up to date.
A long-ish time ago, I started wrapping those tools into tiny containers that only do that one job. This is no new concept; Jesse wrote about this aeons ago, in 2015. I remember talking to Fabian about this at a Drupalcon (it might have been Amsterdam). Fabian built docker-relay, which elegantly solves the issue of how to run those single-purpose containers. Currently, I create containers for a specific use, e.g. ffmpeg, qpdf, pandoc or yt-dlp. And to use them, I have linked them via my dotfiles.
The structure is usually a very small dockerfile e.g.
FROM alpine
WORKDIR /data
RUN apk add ffmpeg
ENTRYPOINT [ "/usr/bin/ffmpeg" ]
And yes, I don’t publish most of those images because… there’s little to no benefit of publicising them as I re-build them if there’s a need.
Now docker-relay solves this very nicely 😀 In the .docker-relay.yml it only needs a few lines of configuration and a symlink back to the docker-relay binary on my system, and we’re good to go.
And yes, it’s called docker-relay, but it works wonderfully together with Colima. Because Colima is much nicer to use on OSX-based systems compared to Docker Desktop. As it does not have the tendency to suddenly use an entire CPU core to drain my battery for no reason.
Every time N-O-D-E publishes a video or blog post, it will be good. This time it’s a simple 3d printed wallet.
My sewing skills are on par with my welding skills… sadly sewing grinder and paint will not help you.
I’ve printed the 2 pieces for now and got some 30mm elastic band at the hardware store, and after sewing things together, it seems to work quite nicely. I’d use 2-3 cm more – I used 20cm – of the band to make it less firm, but I am sure it will also wear out eventually.
Accessories
As People on YT were looking for a BOM for the Adapters. I also looked for them. Luckily I have one of the small Kingston MicroSD Card Readers, but that one is beat and works on good days, so I might want to replace it.
I’ve a travel SIM with me most of the time. Usually, it sits in my wallet because it’s with me when I travel. I forgot that thing too many times before. A micro-sim fits under the Sim Tray Tool and does not rattle or fall off.
Dinge die ich geschaut habe die ich für sehenswert befand – Nein ich möchte nicht über meinen YT Konsum sprechen…
Jajaaaa ich weiss Verbrennungsmotoren, aber hast du dir schon mal wirklich angeschaut wie das wirklich funktioniert? In der Theorie ja, aber so schön aufgedröselt wie in dem Video schon lange nicht mehr.
Zwar sehr USA zentrisch, jedoch gelten einige Teile (Anwalt, Pass, Schlüsselmacher) auch ganz gut für uns hier.
Ich war mir nicht bewusst, dass Autowerbung eigentlich nur noch gerendert ist. Die Technik dahinter ist unglaublich ausgereift – mindblown.gif
Eimal Over-Engineering zum mitnehmen. Und irgendwie will ich jetzt auch einen schnelleren Mokkapot!
Aus Gründen finde ich es schön wenn andere Berufe auch mal zeigen was bei Ihnen schief geht. Wenn eine grosse Fichte nicht so fällt wie sie soll und wie man das Problem löst ist grossartig.
Was für nächstes Jahr 🙂
Ich kannte den Connections Museum Kanal noch nicht. Aber irgendwie macht es Spass den Menschen vom Museum beim Booten von uraltem Telco Equipment zuzuschauen und die Befindlichkeiten der Geräte zu erläutern.
TSMC und Co. war mir bewusst, das dann alles auf technologie von ASML basiert… mindblown.gif