Introducing G2.ai, the future of software buying.Try now
Usuario verificado en Software de Computadora
G2
Director of Data Management at Barclays

Quería cargar 200 TB de datos en Snowflake.

Cómo escalar el rendimiento para cargar esto más rápido.
2 comentarios
Parece que no has iniciado sesión.
Los usuarios deben estar conectados para responder preguntas
Iniciar Sesión
Javed S.
JS
Award-Winning Founder, CEO@Lyftrondata| Speaker | Entrepreneur & Investor
0
Hola Rajeev, Analiza cualquier tamaño de datos en más de 35 herramientas de visualización. El modelo de entrega de datos ágil podría procesar billones de filas, tablas y ofrece un rendimiento de BI inigualable y escalabilidad ilimitada para los usuarios de Snowflake. Ejecuta consultas SQL en tiempo real en cualquier fuente de datos. Crea conjuntos de datos y compártelos entre equipos y herramientas de análisis. Gracias Lyftron Data Angel
Parece que no has iniciado sesión.
Los usuarios deben estar conectados para escribir comentarios
Iniciar Sesión
Responder
Rahul P.
RP
Software engineer at Barclays | Frontend | JavaScript
0
Cargar desde CSV comprimido en Gzip es la forma más rápida de cargar desde ORC y Parquet a aproximadamente 15 TB/hora.
Parece que no has iniciado sesión.
Los usuarios deben estar conectados para escribir comentarios
Iniciar Sesión
Responder