Introducing G2.ai, the future of software buying.Try now

Macros in SPL

refers http://c.raqsoft.com/article/1687916213139 In addition to common static code, sometimes dynamic code is also needed to solve problems, such as generating code (or part of code) based on parameters and dynamically executing it. For programming languages that lack dynamic coding mechanisms, it is usually necessary to write the variable parts of the code in string form. For example, when referencing dataset field names in Python, it is necessary to write them as strings to achieve the effect of dynamic code. However, this will make it inconvenient to read and write more common static code. SQL, on the other hand, can directly write field names (as well as filter conditions, grouping expressions, etc.) in the code without having to write them into strings, making it easier to read and write static code, but it is difficult to handle dynamic code. SPL inherits the SQL style of static code, allowing for direct writing of code parts, such as field names, without the need to be written as strings. In addition, SPL also provides macros to achieve dynamic code effects. Example 1: Dynamically sort the order table based on the parameter pSortList, which contains an indefinite number of sorting fields separated by commas. This dynamic code can be implemented using SPL macros: T("Orders.txt").sort(${pSortList})
3 commentaires
On dirait que vous n'êtes pas connecté.
Les utilisateurs doivent être connectés pour répondre aux questions
Se connecter
esProc SPL Community
Réponse officielle
esProc SPL Community
Jason K.
JK
Marketing Specialist at Scudata
0
SQL et SPL sont deux technologies de traitement polyvalentes pour les données structurées, et chacune a ses propres caractéristiques. Plus précisément, SQL est très popularisé et largement utilisé, de nombreux utilisateurs ont une capacité naturelle à interroger des données avec SQL, et il est facile pour eux de commencer une fois que le moteur de données prend en charge SQL ; il est relativement facile de migrer des programmes historiques. SPL est concis et efficace, offrant une syntaxe plus agile qui peut simplifier des calculs complexes, tout en soutenant le calcul procédural et en soutenant naturellement le codage par étapes ; le système de calcul de SPL est plus ouvert, rendant possible le calcul mixte pour plusieurs sources de données en même temps, et obtenant facilement des performances de calcul plus élevées avec un stockage intégré haute performance et des algorithmes haute performance ; il est plus flexible à utiliser, permettant de l'utiliser indépendamment ou intégré dans des applications.
On dirait que vous n'êtes pas connecté.
Les utilisateurs doivent être connectés pour écrire des commentaires
Se connecter
Répondre
esProc SPL Community
Réponse officielle
esProc SPL Community
Jason K.
JK
Marketing Specialist at Scudata
0
Avec l'avènement de l'ère des mégadonnées, la quantité de données continue de croître. Dans ce cas, il est difficile et coûteux d'augmenter la capacité de la base de données fonctionnant sur un petit ordinateur traditionnel, ce qui rend difficile le soutien au développement des affaires. Pour faire face à ce problème, de nombreux utilisateurs commencent à se tourner vers la voie du calcul distribué, c'est-à-dire à utiliser plusieurs serveurs PC peu coûteux pour former un cluster afin d'effectuer des tâches de calcul de mégadonnées. Hadoop/Spark est l'une des technologies logicielles importantes dans cette voie, qui est populaire parce qu'elle est open source et gratuite. Après des années d'application et de développement, Hadoop a été largement accepté, et non seulement il peut être appliqué directement au calcul de données, mais de nombreuses nouvelles bases de données sont développées sur sa base, telles que Hive et Impala.
On dirait que vous n'êtes pas connecté.
Les utilisateurs doivent être connectés pour écrire des commentaires
Se connecter
Répondre
esProc SPL Community
Réponse officielle
esProc SPL Community
Jason K.
JK
Marketing Specialist at Scudata
0
Habituellement, les sources de données en streaming sont dynamiques et illimitées, et apparaissent assez différentes de la source de données par lots statique et limitée. Pour des raisons de cadre, il est difficile pour les technologies de bases de données traditionnelles de traiter directement la source de données en streaming, donc les programmeurs doivent recourir à des technologies plus récentes. Les cadres de calcul tels que heron\samza\storm\spark\flink ont été les premiers à réaliser des percées et ont acquis un avantage de premier arrivé dans la technologie de calcul en flux. Ces cadres sont si réussis que dès qu'un calcul en flux est impliqué, les programmeurs d'application se tourneront naturellement vers l'un d'eux. En revanche, pour les technologies de calcul qui ne prétendent pas être un certain cadre, elles sont généralement considérées comme inadaptées à la mise en œuvre du calcul en flux.
On dirait que vous n'êtes pas connecté.
Les utilisateurs doivent être connectés pour écrire des commentaires
Se connecter
Répondre