
RE: OpenAI - ChatGTP
| 02.04.2024, 20:35 (Dieser Beitrag wurde zuletzt bearbeitet: 02.04.2024, 20:36 von Lancelot.)
Ich mag den Sepp. Er formuliert die Sachen häufig etwas drastisch. Aber in der Summe ist er eine ehrliche Haut.
Und er macht "pragmatische" Sachen! das hier zum Beispiel ist tatsächlich cool (https://arxiv.org/abs/2303.12783). Nix was man nicht auch mit KNN hinbekommt. Trotzdem. Die Einstellung stimmt. Da kommt was raus, das ich benutzen kann. Und er faselt nicht ständig was von "Intelligenz" und "Singularity".
Das ist in der Welt der Sam Altmans und anderer Scharlatane schon wirklich was erfrischendes. Er und Yann LeCun halten die Fahne hoch.
Ich kann den ganzen LLM Kram nicht wirklich bewerten. Ich finde die Vergleiche und Benchmarks intransparent.
Was ich aber machen kann, ist die Technik der LLMs für meine Probleme anwenden (Zeitreihen...). Ich war so begeister am Anfang. Und dann kamen all die Paper. Googles TFT (Transformers for Time Series), Informer... und und und...und jetzt Chronos (https://arxiv.org/abs/2403.07815).
Ich hab echt viel Zeit investiert das zu testen. Alles Schwachsinn. Schlechter als einfache Modelle. Kann diese Studie nur bestätigen. https://arxiv.org/abs/2205.13504
Ich habe "moderaten" Erfolg mit Deep Learning Modellen, die irgendwie ein State Space Modell verdrahtet haben (https://arxiv.org/abs/2403.11144).
Aber selbst das ist die Komplexität und den Rechenaufwand nicht wert.
So I agree: Schwachsinn :)
Und er macht "pragmatische" Sachen! das hier zum Beispiel ist tatsächlich cool (https://arxiv.org/abs/2303.12783). Nix was man nicht auch mit KNN hinbekommt. Trotzdem. Die Einstellung stimmt. Da kommt was raus, das ich benutzen kann. Und er faselt nicht ständig was von "Intelligenz" und "Singularity".
Das ist in der Welt der Sam Altmans und anderer Scharlatane schon wirklich was erfrischendes. Er und Yann LeCun halten die Fahne hoch.
Ich kann den ganzen LLM Kram nicht wirklich bewerten. Ich finde die Vergleiche und Benchmarks intransparent.
Was ich aber machen kann, ist die Technik der LLMs für meine Probleme anwenden (Zeitreihen...). Ich war so begeister am Anfang. Und dann kamen all die Paper. Googles TFT (Transformers for Time Series), Informer... und und und...und jetzt Chronos (https://arxiv.org/abs/2403.07815).
Ich hab echt viel Zeit investiert das zu testen. Alles Schwachsinn. Schlechter als einfache Modelle. Kann diese Studie nur bestätigen. https://arxiv.org/abs/2205.13504
Ich habe "moderaten" Erfolg mit Deep Learning Modellen, die irgendwie ein State Space Modell verdrahtet haben (https://arxiv.org/abs/2403.11144).
Aber selbst das ist die Komplexität und den Rechenaufwand nicht wert.
So I agree: Schwachsinn :)
__________________
Forum-Besserwisser und Wissenschafts-Faschist