Introducing G2.ai, the future of software buying.Try now
Utilisateur vérifié à Logiciels informatiques
G2
Director of Data Management at Barclays

Je voulais charger 200 To de données dans Snowflake.

Comment augmenter les performances pour charger cela plus rapidement.
2 commentaires
On dirait que vous n'êtes pas connecté.
Les utilisateurs doivent être connectés pour répondre aux questions
Se connecter
Javed S.
JS
Award-Winning Founder, CEO@Lyftrondata| Speaker | Entrepreneur & Investor
0
Bonjour Rajeev, Le modèle de livraison de données agile pourrait traiter des trillions de lignes, de tables et offrir des performances BI inégalées et une évolutivité illimitée pour les utilisateurs de Snowflake. Exécutez des requêtes SQL en temps réel sur n'importe quelle source de données. Créez des ensembles de données et partagez-les entre les équipes et les outils d'analyse. Merci Lyftron Data Angel
On dirait que vous n'êtes pas connecté.
Les utilisateurs doivent être connectés pour écrire des commentaires
Se connecter
Répondre
Rahul P.
RP
Software engineer at Barclays | Frontend | JavaScript
0
Le chargement à partir de CSV compressé en Gzip est le moyen le plus rapide de charger à partir de ORC et Parquet à environ 15 To/heure.
On dirait que vous n'êtes pas connecté.
Les utilisateurs doivent être connectés pour écrire des commentaires
Se connecter
Répondre