Introducing G2.ai, the future of software buying.Try now

Macros in SPL

refers http://c.raqsoft.com/article/1687916213139 In addition to common static code, sometimes dynamic code is also needed to solve problems, such as generating code (or part of code) based on parameters and dynamically executing it. For programming languages that lack dynamic coding mechanisms, it is usually necessary to write the variable parts of the code in string form. For example, when referencing dataset field names in Python, it is necessary to write them as strings to achieve the effect of dynamic code. However, this will make it inconvenient to read and write more common static code. SQL, on the other hand, can directly write field names (as well as filter conditions, grouping expressions, etc.) in the code without having to write them into strings, making it easier to read and write static code, but it is difficult to handle dynamic code. SPL inherits the SQL style of static code, allowing for direct writing of code parts, such as field names, without the need to be written as strings. In addition, SPL also provides macros to achieve dynamic code effects. Example 1: Dynamically sort the order table based on the parameter pSortList, which contains an indefinite number of sorting fields separated by commas. This dynamic code can be implemented using SPL macros: T("Orders.txt").sort(${pSortList})
3 Kommentare
Sieht aus, als wären Sie nicht angemeldet.
Benutzer müssen angemeldet sein, um Fragen zu beantworten
Anmelden
esProc SPL Community
Offizielle Antwort
esProc SPL Community
Jason K.
JK
Marketing Specialist at Scudata
0
SQL und SPL sind beide universelle Verarbeitungstechnologien für strukturierte Daten und jede hat ihre eigenen Merkmale. Insbesondere ist SQL hochgradig populär und weit verbreitet, viele Benutzer haben eine natürliche Fähigkeit, Daten mit SQL abzufragen, und es fällt ihnen leicht, sich einzuarbeiten, sobald die Daten-Engine SQL unterstützt; es ist relativ einfach, historische Programme zu migrieren. SPL ist prägnant und effizient, bietet eine agilere Syntax, die komplexe Berechnungen vereinfachen kann, während es die prozedurale Berechnung unterstützt und natürlich schrittweises Codieren unterstützt; das Berechnungssystem von SPL ist offener, was es ermöglicht, gemischte Berechnungen für mehrere Datenquellen gleichzeitig durchzuführen und mit eingebautem Hochleistungsspeicher und Hochleistungsalgorithmen leicht höhere Rechenleistung zu erzielen; es ist flexibler in der Nutzung, was es ermöglicht, es unabhängig zu verwenden oder in Anwendungen zu integrieren.
Sieht aus, als wären Sie nicht angemeldet.
Benutzer müssen angemeldet sein, um Kommentare zu schreiben
Anmelden
Antworten
esProc SPL Community
Offizielle Antwort
esProc SPL Community
Jason K.
JK
Marketing Specialist at Scudata
0
"Hadoop/Spark ist zu schwer, esProc SPL ist leicht", siehe http://c.raqsoft.com/article/1665212186752 Mit dem Aufkommen des Zeitalters der Big Data wächst die Datenmenge weiter. In diesem Fall ist es schwierig und kostspielig, die Kapazität von Datenbanken, die auf einem traditionellen kleinen Computer laufen, zu erweitern, was es schwer macht, die Geschäftsentwicklung zu unterstützen. Um dieses Problem zu bewältigen, beginnen viele Nutzer, sich der Route des verteilten Rechnens zuzuwenden, das heißt, mehrere kostengünstige PC-Server zu einem Cluster zu verbinden, um Big-Data-Rechenaufgaben auszuführen. Hadoop/Spark ist eine der wichtigen Softwaretechnologien auf diesem Weg, die beliebt ist, weil sie Open Source und kostenlos ist. Nach Jahren der Anwendung und Entwicklung wurde Hadoop weitgehend akzeptiert, und es kann nicht nur direkt für die Datenverarbeitung eingesetzt werden, sondern viele neue Datenbanken werden darauf basierend entwickelt, wie Hive und Impala.
Sieht aus, als wären Sie nicht angemeldet.
Benutzer müssen angemeldet sein, um Kommentare zu schreiben
Anmelden
Antworten
esProc SPL Community
Offizielle Antwort
esProc SPL Community
Jason K.
JK
Marketing Specialist at Scudata
0
Normalerweise sind die Streaming-Datenquellen dynamisch und unbegrenzt und unterscheiden sich deutlich von der statischen und begrenzten Batch-Datenquelle. Aus Rahmenwerksgründen ist es für traditionelle Datenbanktechnologien schwierig, Streaming-Datenquellen direkt zu verarbeiten, daher müssen Programmierer auf neuere Technologien zurückgreifen. Die Rechenframeworks wie Heron/Samza/Storm/Spark/Flink waren die ersten, die Durchbrüche erzielten und sich einen First-Mover-Vorteil in der Stream-Computing-Technologie verschafften. Diese Frameworks sind so erfolgreich, dass Anwendungsprogrammierer, sobald ein Stream-Computing involviert ist, sich natürlich einem von ihnen zuwenden. Im Gegensatz dazu werden diejenigen Rechentechnologien, die nicht behaupten, ein bestimmtes Framework zu sein, im Allgemeinen als ungeeignet für die Implementierung von Stream-Computing angesehen.
Sieht aus, als wären Sie nicht angemeldet.
Benutzer müssen angemeldet sein, um Kommentare zu schreiben
Anmelden
Antworten