Main navigation

Home Zimt
  • STRATEGIC ADVISORY
    • Amplify Your C-Suite Influence
      • From Lab to Leadership
    • Tech Mastery for Visionary C-Suite
      • AI expert coaching
      • Be the conductor of your AI orchestra.
  • FOR
  • INNOVATION
    • Cutting Through the AI Hype
    • Success will be AI-powered
      • A new level of global possibilities
      • AI changes the business landscape
  • &
  • R&D
  • |
  • About Us
    • Contact Us
  • Global

Neues vielversprechendes Sprachmodell genannt BERT zur Textverdichtung

Breadcrumb

  • Home
  • Blog
  • Neues vielversprechendes Sprachmodell genannt BERT zur Textverdichtung
Mon November 05, 2018

In einer Arbeit der Cornell Universität wird ein einzigartiges zweistufiges Modell vorgestellt, das auf einem Sequenz-zu-Sequenz-Paradigma basiert und demonstriert wie ein auf Pretraining basierendes Encoder-Decoder-Framework bei der Textverdichtung eingesetzt werden kann. BERT kann sowohl auf der Encoder- als auch auf der Decoderseite eingesetzt werden und verstärkt die Zielsetzung während des Lernprozesses. Das Modell lieferte anhand einiger Benchmark-Datensätze  Ergebnisse, die belegen, dass der Ansatz bei der Textzusammenfassung besser abschneidet,als andere traditionelle Systeme.

Algorithmen und Sprache
NLP
AI

Let's explore what we could discover, create and do together.

Contact Us

Zimt

Copyright © 2016-2025 Zimt Software Concepts & Consulting GmbH. All rights reserved.

  • English
  • Deutsch

User account menu

  • My privacy settings

Footer menu

  • DATA PROTECTION
  • LEGAL NOTICE