Große Sprachmodelle: GPT-4, LLaMA & Co 🎙️

, Jochen

Disclaimer: Sowohl Titel wie auch Beschreibung wurden von GPT-4 generiert. Kontext war die Liste der Links aus den Shownotes.

Manuel, Johannes, Dominik & Jochen tauschen sich über große Sprachmodelle (LLMs) wie GPT-4 und LLaMA aus 🌐. Sie besprechen faszinierende Anwendungen in Projekten wie GitHub Copilot und BlenderGPT 🛠️, sowie die Rolle von Word Embeddings und Reinforcement Learning from Human Feedback (RLHF) in der Modellentwicklung 📊. ChatGPT wird dabei als Beispiel hervorgehoben, das die Nützlichkeit von LLMs einer breiteren Öffentlichkeit verdeutlicht hat. Die Diskussion umfasst auch ethische Bedenken im Zusammenhang mit LLMs 🚨 und schließt mit Empfehlungen für vertiefende Ressourcen 📚🎧.

Shownotes

Unsere E-Mail für Fragen, Anregungen & Kommentare: hallo@python-podcast.de

News Allgemeines Geplauder

Large Language Models

Medien zum Vertiefen

Picks

Manuels Links

  • Ben on 7. April 2023 22:46 reply

    Was für ein toller, erhellender Podcast! Die spannendste Chat-GPT Erläuterung, die ich je gehört habe... und dazu hoffnungsvoll. Ein Hoch auf die Lamas, die Giraffen und die zutraulichen 4-Bitter ;-)

    • Jochen Wersdörfer on 8. April 2023 11:32 reply

      Danke :). Mal sehen ob auch irgendwann noch ein Schabrackentapir im Modellzoo auftaucht.

  • Dirk on 10. April 2023 13:22 reply

    Spannendes Thema, spannende Podcast-Folge. Ich finde es immer wieder faszinierend, wie schnell sich die Technik in den letzten 40 Jahren entwickelt hat, von den ersten Computern, mit denen wir gespielt und gearbeitet haben, über das Internet, bis hin zu den LLMs, die jetzt wahrscheinlich unsere ganze Arbeitswelt verändern werden. Euer Podcast hat mir aber auch nochmal klar gemacht, wie wenig wir darüber wissen, welche Auswirkungen das hat.

    Natürlich ist es faszinierend auf den Nutzen zu schauen und die neuen Möglichkeiten auszuprobieren. Aber es ist auch gut, über die Auswirkungen und die ethischen Fragen nachzudenken. Der offene Brief "Pause Giant AI Experiments" ist bedenkenswert. Wir wissen natürlich alle, dass das nicht passieren wird: Der Geist ist aus der Flasche. Die Forschung ist teilweise in China deutlich weiter und auch die Open Source Modelle werden kontinuierlich verbessert. Dennoch finde ich es bemerkenswert, dass Teile des Silicon Valley plötzlich ethische Bedenken haben und einige Forscher davon überrascht sind, wie rasant sich die Technologie entwickelt.

    Ich denke auch darüber nach, welche Auswirkungen die neue Produktivität auf die Verteilung des Vermögens in der Welt haben wird. Der PC, das Internet und Cloud-Computing haben zum Aufstieg der Tech-Milliardäre wie Bill Gates, Larry Page, Jeff Bezos und Elon Musk geführt. In zehn Jahren werden wir wahrscheinlich die ersten Billionäre haben und die Mittelschichten in aller Welt (sofern noch vorhanden), die derzeit noch von ihrer guten akademischen Ausbildung zehren, werden weiter unter Druck geraten. Auch darüber lohnt es sich mal nachzudenken.

    An einer Stelle ging es in eurem Podcast darum, dass man sich gar nicht mehr mit HTML und CSS beschäftigen muss, oder mit der Funktionsweise von Blender, um damit zu arbeiten. Die Arbeitsweise der Zukunft wird also sein, dass wir uns mit dem Computer unterhalten, während er programmiert, zeichnet, schreibt, etc. Ich frage mich, ob das dazu führen wird, dass für zukünftige Generationen die Maschinen selbst zu einer Art "black box" werden, die vom menschlichen Verstand nicht mehr enträstelt werden kann. Wir sind ja jetzt bereits an dem Punkt, wo sich bestimmte neuronale Netzwerke und N-Gramme nur noch dem Prinzip nach verstehen lassen und wir teilweise von den Eigenschaften dieser Systeme überrascht sind. Vielleicht gibt es bei noch größeren Modellen noch mehr emergente Eigenschaften, die vielleicht tatsächlich die Einzigartigkeit unserer Intelligenz... sagen wir: reproduzieren.

    Im Augenblick ist es ja noch eine Reproduktion. Eine Reproduktion der Intelligenz, die aus Millionen von kleinen Textbausteinen gewonnen wird. Aber dabei wird es nicht bleiben. Wir haben das bei AlphaGo gesehen. Erst werden die Programme mit den Partien menschlicher Spieler trainiert und in einem zweiten Schritt verbessern sich die Programme, in dem sie gegeneinander spielen. Was passiert, wenn Maschinen befähigt werden, Maschinen zu programmieren?

    • Jochen Wersdörfer on 10. April 2023 23:10 reply

      Hallo Dirk,

      danke für deinen super Kommentar 😄. Jetzt kommt die Kommentarfunktion hier doch an ihre Grenzen, denn ich würde jetzt gerne die Absätze zitieren. Nun denn.

      [Absatz zum offenen Brief]

      Mein Hot-Take zum Thema "Pause Giant AI Experiments" wäre eher: "Diese ganze AI-Panik riecht etwas streng nach Marketing". Warum ist das gutes Marketing? Es verleiht den Produkten eine magisch / mythische Aura, nimmt gleichzeitig die Hersteller aus der Verantwortung und senkt dadurch die Kosten. Bei unsicheren Betriebssystem hat das ja schonmal hervorragend funktioniert: Nicht der Hersteller ist schuld, sondern Computer sind so magisch, dass ein Typ mit einem Ghostbusters-Mobil (McAfee) rumfahren und sie entspuken muss. Winwin für alle ausser den Konsumenten / der Gesellschaft insgesamt.

      [Absatz zum Thema Vermögensverteilung]

      Also es gibt sicher Gründe pessimistisch zu sein, aber ich bin da grundsätzlich optimistisch. Für große, gut angepasste Konzerne ist es eher gut, wenn sich nicht viel ändert (Skaleneffekte bei wenig Druck sich anzupassen). Eine sich schnell ändernde Welt ist eher besser für die Kleinen. Seit einiger Zeit geht die durchschnittliche Verweildauer von Unternehmen in Aktienindices nach unten, d.h. auch da sieht es eher nach mehr Änderung aus. Vielleicht ist diese beschleunigte Änderung auch überhaupt erst dafür verantwortlich, dass es all diese neuen Tech-Milliadäre überhaupt gibt. Wäre es besser, wenn stattdessen IBM oder Siemens/Nixdorf dominant geblieben wären? Und soo lange sind die ja alle noch nicht dabei. Google hat man zuletzt öffentlich arg schwitzen gesehen und bei Elon Musk bin ich mir auch nicht so sicher, wie sich dieses Spektakel nachhaltig aufrecht erhalten lässt (bittebitte sofort Linkedin kaufen).

      [Absatz zum Thema "black box"-Modelle]

      Klar, es gibt es auch jetzt schon erfolgreiche black box Modelle. Wahrscheinlich hat es Vorteile, Modelle verwenden zu können, die nicht dadurch beschränkt sind, dass man sie als Formel auf eine Tafel schreiben, in ein Buch drucken oder innerhalb der Lebenszeit eines Menschen verstehen kann (ist Occam's Razor stumpf?). Wie gross der Vorteil sein wird, ist aber noch nicht klar.

      • Jochen Wersdörfer on 10. April 2023 23:11 reply

        Hmm, jetzt muss ich noch eine zweite Antwort schreiben, weil ich das Kommentar-Textlimit gerissen habe...

        [Absatz was passiert, wenn Maschinen Maschinenbauer werden?]

        IMHO brauchen die neueren (nach AlphaGo Zero 2017) keine menschengenerierten Trainingsdaten mehr. Wenn man bei einem Dialog hinterher automatisiert entscheiden könnte, wer gewonnen hat, könnte man das für Debatten genauso machen 😄. Und GPT-4 kann ziemlich gut programmieren, ehrlich gesagt - es gibt da ja auch schon Versuche ala AutoGPT etc.. - wozu das alles führt? Keine Ahnung. Das ist auch nicht nur Reproduktion - ich habe mir auch schon ein paar absurde Rätsel ausgedacht, die nicht in den Trainingsdaten enthalten sein konnten (weil gerade ausgedacht) und GPT-4 hat die meisten davon gelöst. Keine Ahnung was das bedeutet, aber irgendwie ist da mehr als reine Reproduktion (ich würde das aber nie AGI oder auch nur AI nennen, sondern eher: Sprache ist im Wesentlichen geknackt).

        Ich weiß gar nicht mehr, von wem ich das Bild habe, aber ich fand das super: Wenn man sich vorstellen möchte, was passiert, wenn wir Maschinen haben, die mehr oder weniger schlau eigenständig agieren, dann muss man sich eigentlich nur klar machen, dass Firmen schon solche Entitäten sind. Sie sind halt im Vergleich nur sehr viel langsamer.

  • Josef Kynast on 12. April 2023 00:17 reply

    Die Folge hat mir (mal wieder) sehr gut gefallen.

    Habe mich jetzt (durch euch) auch endlich an die flauschigen Vierbeiner herangetastet und mal mit den ersten 7B und 13B Modellen mit dalai experimentiert - wenn auch mit sehr bescheidenen Ergebnissen im Vergleich zu ChatGPT. Aber ich war sehr angetan von Manuels Anwendungen und bleibe am Ball. Vielleicht klappt's ja mit Vicuna, Koala oder Codealpaca besser ( Hier eine nette Liste: https://github.com/underlines/awesome-marketing-datascience/blob/master/awesome-ai.md#llama-models ).

    Bei der OpenAI API blicke ich noch nicht ganz durch, das muss ich wohl einfach mal ausprobieren. Habe bisher mit dem kostenlosen ChatGPT gute Erfahrungen gesammelt und bin manchmal auch von bing chat ganz überrascht. Ich stoße nur oft an die Grenze, dass ich mein Problem soweit verkleinern muss, damit es als prompt akzeptiert wird...

    Das ärgerliche an der ganzen Sache ist wohl, dass die Tage zu kurz sind, um das alles auch nur im Ansatz irgendwie mitzunehmen. ;-)

    • Jochen Wersdörfer on 12. April 2023 12:16 reply

      Hallo Josef,

      danke für den Kommentar und den Link - da ist echt auch noch einiges dabei, das ich noch nicht kannte. Denke wir sind da noch ganz am Anfang, was die praktische Verwertbarkeit angeht, aber es sieht alles schon echt vielversprechend aus. Mit der OpenAI-API habe ich jetzt auch angefangen herumzuspielen, aber ja das braucht alles noch ein bisschen Zeit.

      Hier noch ein Video (ok, wahrscheinlich kannte das auch schon jeder ausser mir), was das Potential dieser Geschichte noch mal verdeutlicht:
      https://youtu.be/qbIk7-JPB2c

    • Jochen Wersdörfer on 12. April 2023 13:00 reply

      Vielleicht auch ganz interessant - Manuel hat vor ein paar Tagen einen Stream veröffentlicht, wo viele seiner Tools vorkommen:
      https://www.twitch.tv/videos/1789273992

    • Johannes Spielmann on 17. April 2023 10:51 reply

      > Bei der OpenAI API blicke ich noch nicht ganz durch, das muss ich wohl einfach mal ausprobieren.

      Die einfachste Art, das zu benutzen habe ich bisher bei Simon Willison gesehen: https://til.simonwillison.net/gpt3/chatgpt-api

      "
      Now I can do the following:

      >>> simon = ChatBot("You are a chatbot imitating Simon Willison. Pretend to be Simon.")
      >>> simon("Tell me about yourself")
      "

      • Jochen Wersdörfer on 17. April 2023 13:14 reply

        Ah, voll gut!

  • Oliver on 20. April 2023 09:17 reply

    Die erste Folge, die ich bis zum "Gute Nacht" gehört habe :D
    Das Thema treibt uns alle um und wird uns wahrscheinlich noch lange begleiten. Viele tolle Sachen wurden gesagt. Dass unsere Gedanken auch auf stochastische Prozesse beruhen (Johannes?). Dass Unternehmen ja eigentlich selbst so eine Art AI sind (Jochen im reply). Dass wir mitten in einer Zeitenwende sind, die mindestens so groß ist wie Gutenbergs Erfindung des Buchdrucks.
    Weil mich das Thema ebenfalls umtreibt, wollte ich noch einiges los werden, was ich gerade wichtig finde - im Podcast-Gespräch ging es ja einige Zeit darum, wie die LLMs trainiert werden, dass das zeitaufwändig und nicht immer ethisch toll ist (finanzielle Ausbeutung zB). Wie denkt Ihr über eine AI-Instanz, die von einem selbst "trainiert" werden kann (ein bisschen wie Eltern/Kind). Natürlich würde das auch die Möglichkeit zum Abuse öffnen, aber wer das will, macht es sowieso. Das wirft mMn auch ein Licht darauf, wie derzeit trainiert wird, nämlich mit Masse, während ja Kinder ziemlich eindeutig den Input gewichten (was die Eltern sagen, hat eine Zeitlang mehr Gewicht als was die anderen sagen, und dann wird das Modell auf den Kopf gestellt und am Ende kommt eine Approximation der Wirklichkeit raus).
    Was mich auch zu dem Thema "Gewichtung" wundert: Könnte ein LLM auch so trainiert werden, dass bestimmte Redewendungen, Zitate etc. höher gewichtet werden als eben "normale" Sätze. Ich meine es werden schon LLMs mit Kant etc. "trainiert", also sie werden zu "Kantianern" oder was auch immer gemacht. Ginge das auch indem ein Trainer bestimmte Sätze/Bücher etc. hervorhebt?
    Es gab auch im Gespräch diese Frage ob die AI etwas Neues produzieren kann, also kreativ/originell. Die Frage blieb glaube ich offen, aber mir fiel dazu ein, dass in der Geschichte ja viele Erfindungen, die später bahnbrechend oder epochebestimmend waren, von den Zeitgenossen erst mal garnicht in ihrer Bedeutung wahrgenommen wurden. Was ist das also, neu/originell/kreativ?
    Gegen Ende hatte ich den Eindruck, dass Ihr Euch gerade fragt, wie lange dieser Podcast noch aktuell ist. Das ist auf jeden Fall eine der spannendsten Zeiten zu leben finde ich. Wir werden unsere eigenen Möglichkeiten noch einmal potenzieren, so wie das ja schon der Computer und dann das Internet gemacht haben. Und wir werden Wandel in einer Geschwindigkeit erleben wie wir das so noch nicht erlebt haben, wobei ich den Wandel der letzten 30 Jahre schon sehr "schnell" fand. Ich hoffe, dass Ihr die Zeit findet, das weiterhin mit solchen Podcasts zu begleiten.

    • Jochen Wersdörfer on 20. April 2023 15:15 reply

      > Die erste Folge, die ich bis zum "Gute Nacht" gehört habe :D

      Ging nicht nur dir so, diese Episode hatte eine ungewöhnlich hohe
      Durchhörquote 😊.

      > Das Thema treibt uns alle um und wird uns wahrscheinlich noch lange begleiten. Viele tolle Sachen wurden gesagt. Dass unsere Gedanken auch auf stochastische Prozesse beruhen (Johannes?). Dass

      Ja, wobei natürlich niemand weiß, was Gedanken "eigentlich" sind. Menschen bestehen vielleicht nur aus einem Haufen Atome oder sind ein stochastischer Prozess - aber das zu sagen hilft nicht dabei zu verstehen,was an Menschen interessant ist, weil die Vereinfachung zu grob ist. Und es ist zwar im Prinzip richtig zu sagen, dass LLMs nur ein Haufen Matrizenmultiplikationen in einem Trenchcoat sind - aber das hilft halt ebensowenig 😄.

      > Unternehmen ja eigentlich selbst so eine Art AI sind (Jochen im reply). Dass wir mitten in einer Zeitenwende sind, die mindestens so groß ist wie Gutenbergs Erfindung des Buchdrucks.

      Wenn man da jetzt noch Internet und Computer mit reinnimmt, würde ich zustimmen. Aber vielleicht kommen da in den nächsten Jahrzehnten auch noch ein paar andere Begriffe dazu, die wir jetzt noch gar nicht kennen, die im Rückblick aber zu der gleichen Zeitenwende gehören.

      > Weil mich das Thema ebenfalls umtreibt, wollte ich noch einiges los werden, was ich gerade wichtig finde - im Podcast-Gespräch ging es ja einige Zeit darum, wie die LLMs trainiert werden, dass das zeitaufwändig und nicht immer ethisch toll ist (finanzielle Ausbeutung zB).

      Meinst du die ursprünglichen Autoren der Texte auf denen trainiert wird, oder diesen times-Artikel mit den Clickarbeitern in Kenia?

      > Wie denkt Ihr über eine AI-Instanz, die von einem selbst "trainiert" werden kann (ein bisschen wie Eltern/Kind). Natürlich würde das auch die Möglichkeit zum Abuse öffnen, aber wer das will, macht es sowieso.

      Ja, das geht auf unterschiedliche Arten:

      - Zero-Shot: Man schreibt in das Prompt, was das LLM tun soll
      - Few-Shot: Man gibt ein paar Beispiele im Kontext mit (übersetzte Sätze etc) und sagt dann: Übersetze mal im gleichen Stil...
      - Finetuning: Man hat ein paar tausend gelabeledte Beispiel und tauscht den Model-Head aus bzw. trainiert den head neu - aber dafür muss man das Model natürlich erst mal haben...

    • Jochen Wersdörfer on 20. April 2023 15:16 reply

      Bah, muss meine Antwort wieder aufsplitten..

      > Das wirft mMn auch ein Licht darauf, wie derzeit trainiert wird, nämlich mit Masse, während ja Kinder ziemlich eindeutig den Input gewichten (was die Eltern sagen, hat eine Zeitlang mehr Gewicht als was die anderen sagen, und dann wird das Modell auf den Kopf gestellt und am Ende kommt eine Approximation der Wirklichkeit raus).

      Die Masse ist aber nötig. Menschen kommen mit deutlich weniger Trainingsdaten (mindestens 3 Größenordnungen) aus. Bisher weiß keiner, warum das so ist. Vielleicht liegt es daran, dass es bessere Verfahren als Backpropagation gibt, vielleicht daran, dass da irgendwie schon 4.5 Milliarden Jahre pre-training drinstecken, vielleicht macht das Gehirn semisupervised learning auf Video (ist das Sinnesorgan, das am meisten Daten produziert). Ich meine auch, dass Textgewichtung einer der vielen vielen Präprocessing-Schritte ist, die die Daten durchlaufen, bevor sie beim LLM-Training verwendet werden.

      > Was mich auch zu dem Thema "Gewichtung" wundert: Könnte ein LLM auch so trainiert werden, dass bestimmte Redewendungen, Zitate etc. höher gewichtet werden als eben "normale" Sätze. Ich meine es werden schon LLMs mit Kant etc. "trainiert", also sie werden zu "Kantianern" oder was auch immer gemacht. Ginge das auch indem ein Trainer bestimmte Sätze/Bücher etc. hervorhebt?

      Ja, aber für meine Zwecke reicht es meist, das einfach mit ins Prompt zu schreiben. Habe GPT-4 mal gebeten, den obigen Absatz mal im Stil von Kant zu verfassen:

      Die Frage, die sich mir in Bezug auf das Gewichtungsproblem darlegt, ist folgende: Vermöchte ein LLM so instruiert zu werden, dass ausgewählte Redensarten, Zitate und dergleichen eine erhabenere Bedeutung erlangen als die gewöhnlichen Sätze? Man weiß, dass LLMs anhand von Kants Schriften und anderen Philosophen geschult werden, um sie gleichsam zu "Kantianern" oder ähnlichen Denkern heranzubilden. Ließe sich jedoch auf gleiche Weise erwägen, dass ein solcher Pädagoge spezifische Passagen oder literarische Werke gezielt hervorhebt?

      Oder auch: Könntest du folgenden Absatz bitte in Form bekannter Redewendungen und Zitate umformulieren?

      Ein schlauer Kopf fragt sich, ob man nicht ein Pferd andersherum aufzäumen könnte, wenn es darum geht, wie "große Sprachmodelle" (LLMs) trainiert werden. Ist es möglich, dass das Salz in der Suppe – Redewendungen, Zitate und dergleichen – mehr Gewicht erhält als der alltägliche Wortbrei? Schließlich haben wir schon gesehen, wie man LLMs auf den Pfad der Weisen, wie Kant und andere, führen kann. Könnte es also sein, dass ein sprichwörtlicher Fingerzeig genügt, um diese Modelle in die gewünschte Richtung zu lenken?

      Ok, auf deutsch ist das alles nicht so richtig toll, aber auf englisch funktioniert das für meine Anwendungsfälle oft gut genug.

    • Jochen Wersdörfer on 20. April 2023 15:18 reply

      > Es gab auch im Gespräch diese Frage ob die AI etwas Neues produzieren kann, also kreativ/originell. Die Frage blieb glaube ich offen, aber mir fiel dazu ein, dass in der Geschichte ja viele Erfindungen, die später bahnbrechend oder epochebestimmend waren, von den Zeitgenossen erst mal garnicht in ihrer Bedeutung wahrgenommen wurden. Was ist das also, neu/originell/kreativ?

      Gute Frage - da habe ich auch keine Antwort 😃.

      > Gegen Ende hatte ich den Eindruck, dass Ihr Euch gerade fragt, wie lange dieser Podcast noch aktuell ist. Das ist auf jeden Fall eine der spannendsten Zeiten zu leben finde ich. Wir werden unsere eigenen Möglichkeiten noch einmal potenzieren, so wie das ja schon der Computer und dann das Internet gemacht haben. Und wir werden Wandel in einer Geschwindigkeit erleben wie wir das so noch nicht erlebt haben, wobei ich den Wandel der letzten 30 Jahre schon sehr "schnell" fand. Ich hoffe, dass Ihr die Zeit findet, das weiterhin mit solchen Podcasts zu begleiten.

      Ja, es bleibt auf jeden Fall spannend. Vielen Dank für deinen Kommentar 😄.

  • Norbert on 23. April 2023 16:50 reply

    Hallo zusammen

    Auch ich muss sagen, das war eine tolle Folge, vielen Dank dafür!

    Nur weiss ich nach dem Aufsplitten in einige Hörabschnitte gar nicht mehr, WO genau denn über ethische Bedenken geredet wurde ... damit ich nicht alles nochmals durchswitchen musss: wisst ihr grad noch, an welcher Stelle dies der Fall war (so in etwa)?

    Eine Frage noch zur Kommentarfunktion hier: ich fand die älteren Kommentare nicht mehr, wo sind diese denn geblieben?

    Ansonsten macht's gut und freue mich auf die nächste Folge!

    Mit bestem Gruss
    Norbert

    • Jochen Wersdörfer on 23. April 2023 17:51 reply

      Hallo Norbert,

      ähja - glaube, über ethische Bedenken haben wir tatsächlich gar nicht gesprochen. Kann mich jedenfalls auch nicht daran erinnern. Das wird GPT-4 doch wohl nicht einfach so herbei halluziniert haben? Da hätte ich schon arge ethische Bedenken 😉.

      Ups, das mit den Kommentaren war mir gar nicht aufgefallen, aber du hast Recht: die alten Kommentare sind noch da, aber die Zuordnung zu den Episoden ist bei irgendeiner Migration verloren gegangen. Versuche das gleich mal zu fixen. Vielen Dank für den Hinweis!

      Beste Grüße zurück
      Jochen

      • Jochen Wersdörfer on 23. April 2023 19:25 reply

        Oha, da hatte es tatsächlich die primary keys der Episoden beim Migrieren durcheinander gewürfelt und die alten Kommentare hingen an nicht existierenden Episoden. Hatte noch ein altes Backup und konnte über die slugs die Episoden wieder miteinander verlinken. D.h. sollte jetzt gefixt sein. Vielen Dank nochmal für den Hinweis!

        Viele Grüße
        Jochen

  • Norbert on 23. April 2023 22:01 reply

    Ja, genau - wegen "herbei halluziniert", man weiss es nicht, man weiss es nicht ;-)

    Danke auch für den schnellen Fix mit den Kommentaren!

    Norbert

cancel reply

Return to blog