Introducing G2.ai, the future of software buying.Try now
BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering
Enregistrer dans Mes Listes
Non revendiqué
Non revendiqué

BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering Avis & Détails du Produit

Présentation de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering

Média de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering

Image de l'avatar du produit

Avez-vous déjà utilisé BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering auparavant?

Répondez à quelques questions pour aider la communauté BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering

Avis sur 5 BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering

4.1 sur 5
Les prochains éléments sont des filtres et modifieront les résultats affichés une fois sélectionnés.
Rechercher des avis
Masquer les filtresPlus de filtres
Les prochains éléments sont des filtres et modifieront les résultats affichés une fois sélectionnés.
Les prochains éléments sont des filtres et modifieront les résultats affichés une fois sélectionnés.
Les avis G2 sont authentiques et vérifiés.
Rishika J.
RJ
Software Engineer II
Marché intermédiaire (51-1000 employés)
"BERT : Un modèle de réponse aux questions par PyTorch"
Qu'aimez-vous le plus à propos de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

L'un des meilleurs aspects de ce transformateur PyTorch particulier est son support pour plus de 100 langues. BERT est intégré aux réseaux neuronaux les plus efficaces, aux objectifs d'entraînement et à l'apprentissage par transfert. C'est un modèle pré-entraîné avec un réglage très précis, entraîné sur différents ensembles de données disponibles comme SQUAD. Il répond aux questions de manière concise et aide même dans d'autres cas d'utilisation comme la mise en évidence de paragraphes avec des points d'entrée cruciaux lorsqu'une question est posée. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

La précision et le vaste support pour de grands ensembles de données pour différentes langues font de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering un modèle coûteux. En raison du grand ensemble de données, ce modèle est un peu lent à entraîner, nécessite la mise à jour de nombreux poids et prend plus de temps de calcul. Avis collecté par et hébergé sur G2.com.

Jagadis P.
JP
Product Specialist (Order to Cash)
Entreprise (> 1000 employés)
"Maîtriser votre configuration avec PyTorch - Chef-d'œuvre"
Qu'aimez-vous le plus à propos de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Pytorch BERT est l'un des outils de questions-réponses extractives qui est créé sur une idéologie d'intégration de texte. Cela prend en entrée une paire de chaînes de question-configuration et renvoie une chaîne de sous-module contextuel liée qui correspond plus ou moins au contexte exact de la véritable réponse à la question. La meilleure partie de cette configuration est qu'elle est basée sur un modèle pré-entraîné sur une configuration multilingue qui aide à renvoyer des chaînes de contexte de question. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

L'IA et le ML font des travaux merveilleux mais nous n'avons pas encore atteint le niveau que nous souhaitons. Parfois, il agit de manière étrange en renvoyant une réponse ou une chaîne qui est liée à la question d'une manière lexicale mais pas contextuelle. Cela peut être mis de côté comme une exception car ce sont des cas très rares où vos énoncés ne sont pas correctement définis. Avis collecté par et hébergé sur G2.com.

Tarang N.
TN
Systems Associate - Trainee
Marché intermédiaire (51-1000 employés)
"BERT : Un cas unique pour le modèle de base multilingue"
Qu'aimez-vous le plus à propos de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

BERT Base Multilingual Uncased PyTorch Hub est un modèle de transformateur car il aide l'ordinateur à comprendre les données multilingues de différentes langues en une seule forme unicase et à prédire la phrase suivante pour l'amélioration avec l'aide de l'intelligence artificielle et ensuite masquer aléatoirement une partie des mots et l'exécuter pour compléter la phrase entière. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Il n'y a rien que je n'aime pas à propos de BERT Base Multilingual mais il est principalement conçu pour être affiné sur des tâches qui utilisent la phrase entière pour prendre une décision et la classification de séquence. Avis collecté par et hébergé sur G2.com.

Utilisateur vérifié à Technologie de l'information et services
UT
Petite entreprise (50 employés ou moins)
"Modèle de traitement du langage naturel"
Qu'aimez-vous le plus à propos de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

BERT est un modèle de base multilingue, il est entraîné sur 102 langues. L'avantage du modèle est qu'il est insensible à la casse. On peut facilement y accéder en utilisant la bibliothèque pytorch. Le modèle vise à affiner les tâches qui dépendent de phrases entières. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Le modèle semble être assez efficace et performant. Je n'ai trouvé aucun inconvénient. Avis collecté par et hébergé sur G2.com.

Utilisateur vérifié à Technologie de l'information et services
CT
Entreprise (> 1000 employés)
"BERT BASE - Fonctionne parfaitement bien"
Qu'aimez-vous le plus à propos de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Tokeniseur de modèle de langage. Il fonctionne bien avec tous les ensembles de données et dans toutes les industries générales. Avis collecté par et hébergé sur G2.com.

Que n’aimez-vous pas à propos de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Difficile d'accomplir des tâches en un temps limité. Chronophage. Avis collecté par et hébergé sur G2.com.

Tarification

Pricing details for this product isn’t currently available. Visit the vendor’s website to learn more.

BERT Base Multili...