Schlagwort: Modell-Variationen

  • ChatGPT vs. Gemini: Lässt sich ein besseres KI-Modell bestimmen?

    ChatGPT vs. Gemini: Lässt sich ein besseres KI-Modell bestimmen?

    Ars Technica hat die Standardmodelle von ChatGPT 5.2 und Gemini 3.2 Fast miteinander verglichen. Dafür nutzte das Redaktionsteam eine Reihe unterschiedlicher Testfragen, die verschiedene Fähigkeiten abdecken sollten; von kreativen (Schreib-)Aufgaben bis hin zu logischen und faktischen Fragestellungen. In der Gesamtbewertung erzielten beide Anwendungen ähnliche Punktzahlen, wobei sich die jeweiligen Stärken etwas unterschieden. ChatGPT machte insbesondere…

    Weiterlesen…


  • Aktuelle Limitierungen und künftige Auswege: Was können wir 2026 erwarten?

    Aktuelle Limitierungen und künftige Auswege: Was können wir 2026 erwarten?

    „Model-Overhang“ bzw. „Capability-Overhang” verhindert laut Microsofts CEO Satya Nadella oder OpenAI, dass KI-Modelle die Leistungen erbringen, die möglich wären. Was steckt dahinter? KI-Modelle haben enormes Potenzial, das aber oft ungenutzt bleibt, weil den Nutzenden die Kompetenz fehlt, dieses voll auszuschöpfen. Die oben genannten Akteure fordern daher, dass sich die Form der Interaktion zwischen Nutzenden und…

    Weiterlesen…


  • LLMs erreichen ihre Grenzen – Sind jetzt mehr Daten oder ein neuer Ansatz erforderlich?

    LLMs erreichen ihre Grenzen – Sind jetzt mehr Daten oder ein neuer Ansatz erforderlich?

    Bisher war das Motto bei LLMs: Je mehr Daten, desto besser der Output. Aber ist das wirklich die langfristige Lösung oder braucht man nicht einen anderen Ansatz? Es gibt zwei Limitationen, weswegen das Prinzip „Mehr Daten = Besserer Output“ nicht endlos funktionieren wird: Grund für diese Limitationen ist die probabilistische Natur der Modelle. D. h.…

    Weiterlesen…


  • Der tatsächliche Fortschritt von KI wird unterschätzt

    Der tatsächliche Fortschritt von KI wird unterschätzt

    Viele Menschen sehen KI noch immer als Chatbot oder bessere Suchmaschine. Doch laut OpenAI ist die Technologie längst weiter: Moderne Systeme bewältigen heute komplexe Denkaufgaben, für die Experten früher Stunden gebraucht hätten – und die öffentliche Wahrnehmung halte mit dieser Entwicklung kaum Schritt. Das Unternehmen erwartet schon bald KI-Modelle, die Aufgaben übernehmen können, für die…

    Weiterlesen…


  • Weniger ist mehr: Anthropic-Studie zeigt Grenzen längerer Rechenzeiten

    Weniger ist mehr: Anthropic-Studie zeigt Grenzen längerer Rechenzeiten

    Lange galt in der KI-Entwicklung die Annahme: Je mehr Rechenzeit ein Modell bekommt, desto besser die Antwort – insbesondere bei komplexen Aufgaben. Eine neue Studie von Anthropic, veröffentlicht im Juli 2025, stellt dieses Grundverständnis nun infrage. Die Forschenden testeten u. a. die Sprachmodelle Claude Sonnet 4, o3-mini und DeepSeek R1 in verschiedenen Aufgabenbereichen und im Vergleich…

    Weiterlesen…


  • Sind Chatbots nur eine Übergangslösung?

    Sind Chatbots nur eine Übergangslösung?

    Werden Chatbot-Anwendungen mittelfristig von Agenten und Deep-Search-Modellen abgelöst? Anzeichen dafür gibt es einige: So hat bspw. Anthropic schon Ende 2024 aufgehört, in Chatbots zu investieren. Mittlerweile gibt es auch einige Untersuchungen, in denen Chatbots bspw. einmal als „die große Enttäuschung in der Arbeitswelt” bezeichnet werden. Testergebnisse wie „people struggle to get useful advice from chatbots”…

    Weiterlesen…