Introducing G2.ai, the future of software buying.Try now
Verifizierter Benutzer in Computersoftware
G2
Director of Data Management at Barclays

Ich wollte 200 TB Daten in Snowflake laden.

Wie man die Leistung skaliert, um dies schneller zu laden.
2 Kommentare
Sieht aus, als wären Sie nicht angemeldet.
Benutzer müssen angemeldet sein, um Fragen zu beantworten
Anmelden
Javed S.
JS
Award-Winning Founder, CEO@Lyftrondata| Speaker | Entrepreneur & Investor
0
Hallo Rajeev, Analysieren Sie jede Datengröße in mehr als 35 Visualisierungstools! Das agile Datenliefermodell kann Billionen von Zeilen und Tabellen verarbeiten und bietet unvergleichliche BI-Leistung und grenzenlose Skalierbarkeit für Snowflake-Benutzer. Führen Sie Echtzeit-SQL-Abfragen auf jeder Datenquelle aus. Erstellen Sie Datensätze und teilen Sie sie zwischen Teams und Analysetools. Danke Lyftron Data Angel
Sieht aus, als wären Sie nicht angemeldet.
Benutzer müssen angemeldet sein, um Kommentare zu schreiben
Anmelden
Antworten
Rahul P.
RP
Software engineer at Barclays | Frontend | JavaScript
0
Das Laden aus Gzipped CSV ist der schnellste Weg, um aus ORC und Parquet mit ~15 TB/Stunde zu laden.
Sieht aus, als wären Sie nicht angemeldet.
Benutzer müssen angemeldet sein, um Kommentare zu schreiben
Anmelden
Antworten