Introducing G2.ai, the future of software buying.Try now
BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering
Salvar em Minhas Listas
Não Reivindicado
Não Reivindicado

BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering Avaliações e Detalhes do Produto

Visão geral de BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering

Mídia BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering

Imagem do Avatar do Produto

Já usou BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering antes?

Responda a algumas perguntas para ajudar a comunidade BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering

Avaliações 5 BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering

4.1 de 5
Os próximos elementos são filtros e irão alterar os resultados exibidos assim que forem selecionados.
Pesquisar avaliações
Ocultar FiltrosMais Filtros
Os próximos elementos são filtros e irão alterar os resultados exibidos assim que forem selecionados.
Os próximos elementos são filtros e irão alterar os resultados exibidos assim que forem selecionados.
As avaliações da G2 são autênticas e verificadas.
Rishika J.
RJ
Software Engineer II
Médio Porte (51-1000 emp.)
"BERT: Um modelo de resposta a perguntas por PyTorch"
O que você mais gosta BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Uma das melhores partes deste transformador PyTorch em particular é seu suporte para mais de 100 idiomas. BERT é integrado com as redes neurais mais eficientes, objetivos de treinamento e aprendizado por transferência. É um modelo pré-treinado com ajuste altamente preciso, treinado em diferentes conjuntos de dados disponíveis, como o SQUAD. Ele responde às perguntas de forma concisa e até ajuda em outros casos de uso, como destacar parágrafos com pontos de entrada cruciais quando uma pergunta é feita. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

A precisão e o amplo suporte para grandes conjuntos de dados em diferentes idiomas tornam o BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering um modelo caro. Devido ao grande conjunto de dados, este modelo é um pouco lento para treinar, requer a atualização de muitos pesos e leva mais tempo de computação. Análise coletada por e hospedada no G2.com.

Jagadis P.
JP
Product Specialist (Order to Cash)
Empresa (> 1000 emp.)
"Dominando sua configuração com PyTorch - Obra-prima"
O que você mais gosta BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Pytorch BERT é uma das ferramentas de resposta a perguntas extrativas que é criada com base em uma ideologia de incorporação de texto. Isso recebe como entrada um par de strings de configuração de pergunta e retorna uma string de submódulo contextual relacionada que mais ou menos corresponde ao contexto exato da resposta real à pergunta. A melhor parte dessa configuração é que ela é baseada em um modelo pré-treinado em um ambiente multilíngue, o que ajuda a retornar strings de contexto de pergunta. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

AI e ML estão fazendo trabalhos maravilhosos, mas ainda não alcançamos o nível que desejamos. Às vezes, age de forma estranha ao retornar uma resposta ou string que está relacionada à pergunta de uma maneira vocabular, mas não de uma maneira contextual. Isso pode ser deixado de lado como uma exceção porque são instâncias muito raras onde suas expressões não estão configuradas corretamente. Análise coletada por e hospedada no G2.com.

Tarang N.
TN
Systems Associate - Trainee
Médio Porte (51-1000 emp.)
"BERT: Um caso único para o Modelo Base Multilíngue"
O que você mais gosta BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

BERT Base Multilingual Uncased PyTorch Hub é um modelo transformer, pois ajuda o computador a entender os dados multilíngues de diferentes idiomas em uma única forma sem distinção de maiúsculas e minúsculas e prever a próxima sentença para a melhoria com a ajuda da inteligência artificial e, em seguida, mascarar aleatoriamente parte das palavras e executá-lo para completar a frase inteira. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Não há nada que eu não goste no BERT Base Multilingual, mas ele é principalmente trabalhado para ajuste fino em tarefas que usam a frase inteira para tomar decisões e classificação de sequência. Análise coletada por e hospedada no G2.com.

Usuário Verificado em Tecnologia da Informação e Serviços
UT
Pequena Empresa (50 ou menos emp.)
"Modelo de processamento de linguagem natural"
O que você mais gosta BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

BERT é um modelo base multilíngue, treinado em 102 idiomas. A vantagem do modelo é que ele é insensível a maiúsculas e minúsculas. Pode-se acessá-lo facilmente usando a biblioteca pytorch. O modelo tem como objetivo ajustar finamente as tarefas que dependem de frases inteiras. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

O modelo parece ser bastante eficiente e eficaz. Não encontrei nenhuma desvantagem. Análise coletada por e hospedada no G2.com.

Usuário Verificado em Tecnologia da Informação e Serviços
CT
Empresa (> 1000 emp.)
"BERT BASE - Funciona perfeitamente bem"
O que você mais gosta BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Tokenizador de Modelo de Linguagem. Funciona bem com todos os conjuntos de dados e em todos os setores genéricos. Análise coletada por e hospedada no G2.com.

O que você não gosta BERT Base Multilingual Uncased PyTorch Hub Extractive Question Answering?

Difícil realizar tarefas em um tempo limitado. Consome muito tempo. Análise coletada por e hospedada no G2.com.

Preços

Pricing details for this product isn’t currently available. Visit the vendor’s website to learn more.

BERT Base Multili...