Schlagwort: Deep Learning

  • Wie Sprachmodelle wirklich funktionieren und warum sie nicht denken wie wir

    Wie Sprachmodelle wirklich funktionieren und warum sie nicht denken wie wir

    Künstliche Intelligenz ist im Alltag angekommen. Sie schreibt Texte, beantwortet Fragen und führt Gespräche. Das Herzstück dahinter sind Large Language Models (LLMs). Wie funktionieren Sprachmodelle wirklich, was passiert im Hintergrund und verstehen diese Systeme Sprache? Ich nehme dich Schritt für Schritt mit, zeige ihre Stärken, erkläre ihre Grenzen und mache… Weiterlesen

  • KI-Glossar Kompakt: Die wichtigsten Begriffe einfach erklärt

    KI-Glossar Kompakt: Die wichtigsten Begriffe einfach erklärt

    Mit diesem Glossar erhältst du einen guten Überblick über die wichtigsten KI-Begriffe. Ob du gerade erst in die Welt der künstlichen Intelligenz eintauchst oder deine bestehenden Kenntnisse auffrischen möchtest: Hier findest du schnell die passenden Erläuterungen zu Themen wie Machine Learning, Deep Learning und Co. Ich hoffe, die kurzen, verständlichen… Weiterlesen

  • KI-Modelle verstehen: Was bedeuten Begriffe wie 3B, 8B oder 175B?

    KI-Modelle verstehen: Was bedeuten Begriffe wie 3B, 8B oder 175B?

    Du hast dich sicher schon gefragt, warum es so viele verschiedene KI-Modelle gibt und was die Zahlen wie 3B, 8B oder 175B im Namen eigentlich bedeuten. Dahinter steckt Logik – und ein paar Missverständnisse, die wir hier aufräumen. Wozu so viele Modelle? Nicht jede Aufgabe braucht ein „Supermodell“. Denk an… Weiterlesen

  • Tokens: Das Gedächtnis der KI und wie Maschinen lernen uns zu verstehen

    Tokens: Das Gedächtnis der KI und wie Maschinen lernen uns zu verstehen

    Möchtest du wissen, weshalb KI-Modelle wie ChatGPT oder Claude scheinbar verstehen, was du ihnen schreibst, und wie sie dir passende Antworten liefern können? Das Zauberwort heißt Token. Diese kleinen Bausteine bilden das Gedächtnis und den Kontext moderner KI-Systeme. In diesem Artikel zeige ich dir, was Token sind, wie sie funktionieren… Weiterlesen

  • Moore’sches Gesetz erklärt: Wie es seit Jahrzehnten unsere Computer-Hardware und KI-Entwicklung antreibt

    Moore’sches Gesetz erklärt: Wie es seit Jahrzehnten unsere Computer-Hardware und KI-Entwicklung antreibt

    Das Moore’sche Gesetz ist eine der bekanntesten Prognosen in der Geschichte der Halbleiterindustrie. Der Intel-Mitgründer Gordon E. Moore stellte in den 1960er-Jahren die These auf, dass sich die Anzahl der Transistoren auf einem Chip in regelmäßigen Abständen verdoppelt – ursprünglich etwa alle 12 Monate, später angepasst auf rund 18 bis… Weiterlesen

  • Künstliche Intelligenz: Wie nah sind wir an einer menschenähnlichen Denkweise?

    Künstliche Intelligenz: Wie nah sind wir an einer menschenähnlichen Denkweise?

    Künstliche Intelligenz entwickelt sich in atemberaubendem Tempo. Wenn ich mir anschaue, was Modelle wie ChatGPT von OpenAI oder LLaMA von Meta heute leisten können, bin ich jedes Mal fasziniert. Sie verfassen Texte, beantworten Fragen, analysieren Daten und unterstützen sogar in kreativen Prozessen – und das oft besser und schneller, als… Weiterlesen