Introducing G2.ai, the future of software buying.Try now
BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering
Zu Meinen Listen hinzufügen
Nicht beansprucht
Nicht beansprucht

BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering Bewertungen & Produktdetails

BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering Übersicht

Was ist BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Dies ist ein extraktives Frage-Antwort-Modell, das auf einem Text-Einbettungsmodell von [PyTorch Hub](https://pytorch.org/hub/huggingface_pytorch-transformers/) basiert. Es nimmt ein Paar von Frage-Kontext-Strings als Eingabe und gibt einen Sub-String aus dem Kontext als Antwort auf die Frage zurück. Das Text-Einbettungsmodell, das auf mehrsprachiger Wikipedia vortrainiert ist, liefert eine Einbettung des Eingabepaares von Frage-Kontext-Strings.

BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering Details
Weniger anzeigenMehr anzeigen
Produktbeschreibung
Dies ist ein extraktives Frage-Antwort-Modell, das auf einem Text-Einbettungsmodell von [PyTorch Hub](https://pytorch.org/hub/huggingface_pytorch-transformers/) basiert. Es nimmt ein Paar von Frage-Kontext-Strings als Eingabe und gibt einen Sub-String aus dem Kontext als Antwort auf die Frage zurück. Das Text-Einbettungsmodell, das auf mehrsprachiger Wikipedia vortrainiert ist, liefert eine Einbettung des Eingabepaares von Frage-Kontext-Strings.

Verkäufer
Beschreibung

By giving customers more of what they want - low prices, vast selection, and convenience - Amazon continues to grow and evolve as a world-class e-commerce platform.

BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering Medien

Produkt-Avatar-Bild

Haben sie BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering schon einmal verwendet?

Beantworten Sie einige Fragen, um der BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering-Community zu helfen

Ja
Ja

5 BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering Bewertungen

4.1 von 5
Die nächsten Elemente sind Filter und werden die angezeigten Ergebnisse ändern, sobald sie ausgewählt werden.
Bewertungen durchsuchen
Filter ausblendenWeitere Filter
Die nächsten Elemente sind Filter und werden die angezeigten Ergebnisse ändern, sobald sie ausgewählt werden.
Die nächsten Elemente sind Filter und werden die angezeigten Ergebnisse ändern, sobald sie ausgewählt werden.
G2-Bewertungen sind authentisch und verifiziert.
Rishika J.
RJ
Software Engineer II
Unternehmen mittlerer Größe (51-1000 Mitarbeiter)
"BERT: Ein Frage-Antwort-Modell von PyTorch"
Was gefällt dir am besten BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Einer der besten Aspekte dieses speziellen PyTorch-Transformers ist seine Unterstützung für mehr als 100 Sprachen. BERT ist mit den effizientesten neuronalen Netzwerken, Trainingszielen und Transferlernen integriert. Es ist ein vortrainiertes Modell mit hochpräziser Abstimmung, das auf verschiedenen verfügbaren Datensätzen wie SQUAD trainiert wurde. Es beantwortet die Fragen prägnant und hilft sogar bei anderen Anwendungsfällen wie dem Hervorheben von Absätzen mit entscheidenden Einstiegspunkten, wenn eine Frage gestellt wird. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Die Genauigkeit und die umfangreiche Unterstützung für große Datensätze in verschiedenen Sprachen machen BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering zu einem teuren Modell. Aufgrund des großen Datensatzes ist dieses Modell etwas langsam beim Training, erfordert das Aktualisieren vieler Gewichte und benötigt mehr Rechenzeit. Bewertung gesammelt von und auf G2.com gehostet.

Jagadis P.
JP
Product Specialist (Order to Cash)
Unternehmen (> 1000 Mitarbeiter)
"Das Beherrschen Ihres Setups mit PyTorch - Meisterwerk"
Was gefällt dir am besten BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Pytorch BERT ist eines der extraktiven Frage-Antwort-Tools, das auf einer Text-Embedding-Ideologie basiert. Dies nimmt als Eingabe ein Paar von Frage-Setup-Strings und gibt einen verwandten kontextuellen Submodul-String zurück, der mehr oder weniger dem genauen Kontext der tatsächlichen Antwort auf die Frage entspricht. Der beste Teil dieses Setups ist, dass es auf einem vortrainierten mehrsprachigen Setup basiert, das hilft, Frage-Kontext-Strings zurückzugeben. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

AI & ML leisten wunderbare Arbeit, aber wir haben noch nicht das Niveau erreicht, das wir wollen. Manchmal verhält es sich seltsam, indem es eine Antwort oder einen String zurückgibt, der in einer vokabularen Weise mit der Frage zusammenhängt, aber nicht in einer kontextuellen Weise. Dies kann als Ausnahme betrachtet werden, da es sehr seltene Fälle sind, in denen Ihre Äußerungen nicht richtig eingestellt sind. Bewertung gesammelt von und auf G2.com gehostet.

Tarang N.
TN
Systems Associate - Trainee
Unternehmen mittlerer Größe (51-1000 Mitarbeiter)
"BERT: Ein Unicase für Multilingual Base Model"
Was gefällt dir am besten BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

BERT Base Multilingual Uncased PyTorch Hub ist ein Transformermodell, da es dem Computer hilft, die mehrsprachigen Daten verschiedener Sprachen in eine einheitliche Form zu verstehen und den nächsten Satz für die Verbesserung mit Hilfe von künstlicher Intelligenz vorherzusagen und dann zufällig einen Teil der Wörter zu maskieren und es auszuführen, um den ganzen Satz zu vervollständigen. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Es gibt nichts, was mir an BERT Base Multilingual nicht gefällt, aber es wird hauptsächlich für Aufgaben verwendet, die den gesamten Satz zur Entscheidungsfindung und zur Sequenzklassifikation nutzen. Bewertung gesammelt von und auf G2.com gehostet.

Verifizierter Benutzer in Informationstechnologie und Dienstleistungen
BI
Kleinunternehmen (50 oder weniger Mitarbeiter)
"Modell für die Verarbeitung natürlicher Sprache"
Was gefällt dir am besten BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

BERT ist ein mehrsprachiges Basismodell, das über 102 Sprachen trainiert wurde. Der Vorteil des Modells ist, dass es nicht case-sensitiv ist. Man kann es leicht mit der Pytorch-Bibliothek nutzen. Das Modell zielt darauf ab, Aufgaben zu optimieren, die von ganzen Sätzen abhängen. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Das Modell scheint ziemlich effizient und effektiv zu sein. Habe keinen Nachteil gefunden. Bewertung gesammelt von und auf G2.com gehostet.

Verifizierter Benutzer in Informationstechnologie und Dienstleistungen
II
Unternehmen (> 1000 Mitarbeiter)
"BERT BASE - Funktioniert perfekt"
Was gefällt dir am besten BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Sprachmodell-Tokenizer. Er funktioniert gut mit allen Datensätzen und in allen generischen Branchen. Bewertung gesammelt von und auf G2.com gehostet.

Was gefällt Ihnen nicht? BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Schwierige Aufgaben in begrenzter Zeit zu erledigen. Zeitaufwendig. Bewertung gesammelt von und auf G2.com gehostet.

Preise

Pricing details for this product isn’t currently available. Visit the vendor’s website to learn more.

BERT Base Multili...