Introducing G2.ai, the future of software buying.Try now

Qu'est-ce que l'analyse de régression ? Types, importance et avantages

31 Janvier 2023
par Devyani Mehta

Les entreprises collectent des données pour prendre de meilleures décisions. Mais lorsque vous comptez sur les données pour élaborer des stratégies, simplifier les processus et améliorer l'expérience client, il ne suffit pas de les collecter, il faut aussi les comprendre et les analyser pour pouvoir en tirer des informations précieuses. L'analyse des données vous aide à étudier ce qui s'est déjà passé et à prédire ce qui pourrait se passer à l'avenir. L'analyse des données comporte de nombreux éléments, et bien que certains puissent être faciles à comprendre et à réaliser, d'autres sont plutôt complexes. La bonne nouvelle est que de nombreux logiciels d'analyse statistique offrent des informations significatives à partir des données en quelques étapes. Vous devez comprendre les fondamentaux avant d'utiliser ou de vous fier à un programme statistique pour obtenir des résultats précis, car même si générer des résultats est facile, les interpréter est une autre affaire. Lors de l'interprétation des données, il devient essentiel de prendre en compte les facteurs qui affectent les données. L'analyse de régression vous aide à faire cela. Avec l'aide de cette méthode d'analyse statistique, vous pouvez trouver les facteurs les plus importants et les moins importants dans n'importe quel ensemble de données et comprendre comment ils sont liés. Ce guide couvre les fondamentaux de l'analyse de régression, son processus, ses avantages et ses applications. Qu'est-ce que l'analyse de régression ? L'analyse de régression est un processus statistique qui aide à évaluer les relations entre une variable dépendante et une ou plusieurs variables indépendantes. Le but principal de l'analyse de régression est de décrire la relation entre les variables, mais elle peut également être utilisée pour : - Estimer la valeur d'une variable en utilisant les valeurs connues d'autres variables. - Prédire les résultats et les changements d'une variable en fonction de sa relation avec d'autres variables. - Contrôler l'influence des variables tout en explorant la relation entre les variables. Bases de l'analyse de régression Pour comprendre l'analyse de régression de manière exhaustive, vous devez acquérir des connaissances de base sur les concepts statistiques. Variables L'analyse de régression aide à identifier les facteurs qui impactent les informations issues des données. Vous pouvez l'utiliser pour comprendre quels facteurs jouent un rôle dans la création d'un résultat et quelle est leur importance. Ces facteurs sont appelés variables. Vous devez comprendre deux principaux types de variables. - Le principal facteur sur lequel vous vous concentrez est la variable dépendante. Cette variable est souvent mesurée comme un résultat des analyses et dépend d'une ou plusieurs autres variables. - Les facteurs ou variables qui impactent votre variable dépendante sont appelés variables indépendantes. Ces variables sont souvent modifiées pour l'analyse. Elles sont également appelées variables explicatives ou variables prédictives. Corrélation vs causalité La causalité indique qu'une variable est le résultat de l'occurrence de l'autre variable. La corrélation suggère une connexion entre les variables. Corrélation et causalité peuvent coexister, mais la corrélation n'implique pas la causalité. Surajustement Le surajustement est une erreur de modélisation statistique qui se produit lorsqu'une fonction s'aligne sur un ensemble limité de points de données et fait des prédictions basées sur ceux-ci au lieu d'explorer de nouveaux points de données. En conséquence, le modèle ne peut être utilisé que comme référence à son ensemble de données initial et non à d'autres ensembles de données. Comment fonctionne l'analyse de régression ? Imaginons un instant que vous possédiez un stand de crème glacée. Dans ce cas, nous pouvons considérer « revenu » et « température » comme les deux facteurs à analyser. La première étape pour mener une analyse statistique de régression réussie est de recueillir des données sur les variables. Vous collectez tous vos chiffres de ventes mensuels des deux dernières années et toutes les données sur les variables indépendantes ou explicatives que vous analysez. Dans ce cas, c'est la température moyenne mensuelle des deux dernières années. Pour commencer à comprendre s'il existe une relation entre ces deux variables, vous devez tracer ces points de données sur un graphique qui ressemble à l'exemple théorique suivant d'un nuage de points : Le montant des ventes est représenté sur l'axe des ordonnées (axe vertical), et la température est représentée sur l'axe des abscisses (axe horizontal). Les points représentent les données d'un mois - la température moyenne et les ventes de ce même mois. Observer ces données montre que les ventes sont plus élevées les jours où la température augmente. Mais de combien ? Si la température augmente, combien vendez-vous ? Et si la température baisse ? Tracer une ligne de régression approximativement au milieu de tous les points de données vous aide à déterminer combien vous vendez généralement lorsqu'il fait une température spécifique. Utilisons un nuage de points théorique pour représenter une ligne de régression : La ligne de régression explique la relation entre les valeurs prédites et les variables dépendantes. Elle peut être créée à l'aide d'un logiciel d'analyse statistique ou de Microsoft Excel. Votre outil d'analyse de régression doit également afficher une formule qui définit la pente de la ligne. Par exemple : y = 100 + 2x + terme d'erreur En observant la formule, vous pouvez conclure que lorsqu'il n'y a pas de x, y est égal à 100, ce qui signifie que lorsque la température est très basse, vous pouvez réaliser en moyenne 100 ventes. À condition que les autres variables restent constantes, vous pouvez utiliser cela pour prédire l'avenir des ventes. Pour chaque augmentation de la température, vous réalisez en moyenne deux ventes supplémentaires. Une ligne de régression a toujours un terme d'erreur car une variable indépendante ne peut pas être un prédicteur parfait d'une variable dépendante. Décider si cette variable mérite votre attention dépend du terme d'erreur - plus le terme d'erreur est grand, moins la ligne de régression est certaine. Types d'analyse de régression Divers types d'analyse de régression sont à votre disposition, mais les cinq mentionnés ci-dessous sont les plus couramment utilisés. Régression linéaire Un modèle de régression linéaire est défini comme une ligne droite qui tente de prédire la relation entre les variables. Il est principalement classé en deux types : régression linéaire simple et multiple. Nous discuterons de ceux-ci dans un instant, mais couvrons d'abord les cinq hypothèses fondamentales faites dans le modèle de régression linéaire. - Les variables dépendantes et indépendantes affichent une relation linéaire. - La valeur du résidu est nulle. - La valeur du résidu est constante et non corrélée à travers toutes les observations. - Le résidu est normalement distribué. - Les erreurs résiduelles sont homoscédastiques - elles ont une variance constante. Analyse de régression linéaire simple L'analyse de régression linéaire aide à prédire la valeur d'une variable (variable dépendante) en fonction de la valeur connue d'une autre variable (variable indépendante). La régression linéaire ajuste une ligne droite, donc un modèle linéaire simple tente de définir la relation entre deux variables en estimant les coefficients de l'équation linéaire. Équation de régression linéaire simple : Y = a + bX + ϵ Où, Y – Variable dépendante (variable de réponse) X – Variable indépendante (variable prédictive) a – Interception (ordonnée à l'origine) b – Pente ϵ – Résidu (erreur) Dans un tel modèle de régression linéaire, une variable de réponse a une seule variable prédictive correspondante qui impacte sa valeur. Par exemple, considérons la formule de régression linéaire : y = 5x + 4 Si la valeur de x est définie comme 3, un seul résultat possible de y est possible. Analyse de régression linéaire multiple Dans la plupart des cas, l'analyse de régression linéaire simple ne peut pas expliquer les connexions entre les données. À mesure que la connexion devient plus complexe, la relation entre les données est mieux expliquée en utilisant plus d'une variable. L'analyse de régression multiple décrit une variable de réponse en utilisant plus d'une variable prédictive. Elle est utilisée lorsqu'une forte corrélation entre chaque variable indépendante a la capacité d'affecter la variable dépendante. Équation de régression linéaire multiple : Y = a + bX1 + cX2 + dX3 + ϵ Où, Y – Variable dépendante X1, X2, X3 – Variables indépendantes a – Interception (ordonnée à l'origine) b, c, d – Pentes ϵ – Résidu (erreur) Moindres carrés ordinaires La régression des moindres carrés ordinaires estime les paramètres inconnus dans un modèle. Elle estime les coefficients d'une équation de régression linéaire en minimisant la somme des erreurs au carré entre les valeurs réelles et prédites configurées comme une ligne droite. Régression polynomiale Un algorithme de régression linéaire ne fonctionne que lorsque la relation entre les données est linéaire. Que se passe-t-il si la distribution des données est plus complexe, comme le montre la figure ci-dessous ? Comme on le voit ci-dessus, les données sont non linéaires. Un modèle linéaire ne peut pas être utilisé pour ajuster des données non linéaires car il ne peut pas définir suffisamment les motifs dans les données. La régression polynomiale est un type de régression linéaire multiple utilisé lorsque les points de données sont présents de manière non linéaire. Elle peut déterminer la relation curvilinéaire entre les variables indépendantes et dépendantes ayant une relation non linéaire. Équation de régression polynomiale : y = b0+b1x1+ b2x1^2+ b2x1^3+...... bnx1^n Régression logistique La régression logistique modélise la probabilité d'une variable dépendante en fonction des variables indépendantes. Les valeurs d'une variable dépendante peuvent prendre l'une d'un ensemble limité de valeurs binaires (0 et 1) puisque le résultat est une probabilité. La régression logistique est souvent utilisée lorsque des données binaires (oui ou non ; réussite ou échec) doivent être analysées. En d'autres termes, il est recommandé d'utiliser la méthode de régression logistique pour analyser vos données si votre variable dépendante peut avoir l'une des deux valeurs binaires. Disons que vous devez déterminer si un e-mail est un spam. Nous devons définir un seuil en fonction duquel la classification peut être effectuée. Utiliser la régression logistique ici a du sens car le résultat est strictement limité aux valeurs 0 (spam) ou 1 (non spam). Régression linéaire bayésienne Dans d'autres méthodes de régression, la sortie est dérivée d'un ou plusieurs attributs. Mais que se passe-t-il si ces attributs ne sont pas disponibles ? La méthode de régression bayésienne est utilisée lorsque l'ensemble de données à analyser a peu ou mal distribué les données car sa sortie est dérivée d'une distribution de probabilité au lieu d'estimations ponctuelles. Lorsque les données sont absentes, vous pouvez placer un a priori sur les coefficients de régression pour remplacer les données. À mesure que nous ajoutons plus de points de données, la précision du modèle de régression s'améliore. Imaginez qu'une entreprise lance un nouveau produit et souhaite prédire ses ventes. En raison du manque de données disponibles, nous ne pouvons pas utiliser un modèle d'analyse de régression simple. Mais l'analyse de régression bayésienne vous permet de définir un a priori et de calculer des projections futures. De plus, une fois que de nouvelles données provenant des ventes du nouveau produit arrivent, l'a priori est immédiatement mis à jour. En conséquence, la prévision pour l'avenir est influencée par les données les plus récentes et les précédentes. La technique bayésienne est mathématiquement robuste. Pour cette raison, elle ne nécessite pas que vous ayez une connaissance préalable de l'ensemble de données lors de son utilisation. Cependant, sa complexité signifie qu'il faut du temps pour tirer des inférences du modèle, et l'utiliser n'a pas de sens lorsque vous avez trop de données. Analyse de régression quantile La méthode de régression linéaire estime la moyenne d'une variable en fonction des valeurs d'autres variables prédictives. Mais nous n'avons pas toujours besoin de calculer la moyenne conditionnelle. Dans la plupart des situations, nous avons seulement besoin de la médiane, du quantile 0,25, etc. Dans des cas comme celui-ci, nous pouvons utiliser la régression quantile. La régression quantile définit la relation entre une ou plusieurs variables prédictives et des percentiles ou quantiles spécifiques d'une variable de réponse. Elle résiste à l'influence des observations aberrantes. Aucune hypothèse sur la distribution de la variable dépendante n'est faite dans la régression quantile, vous pouvez donc l'utiliser lorsque la régression linéaire ne satisfait pas ses hypothèses. Considérons deux étudiants qui ont passé un examen d'Olympiade ouvert à tous les groupes d'âge. L'étudiant A a obtenu un score de 650, tandis que l'étudiant B a obtenu un score de 425. Ces données montrent que l'étudiant A a mieux performé que l'étudiant B. Mais la régression quantile nous rappelle que puisque l'examen était ouvert à tous les groupes d'âge, nous devons prendre en compte l'âge de l'étudiant pour déterminer le résultat correct dans leurs espaces quantiles conditionnels individuels. Nous connaissons la variable causant une telle différence dans la distribution des données. En conséquence, les scores des étudiants sont comparés pour les mêmes groupes d'âge. Qu'est-ce que la régularisation ? La régularisation est une technique qui empêche un modèle de régression de surajuster en incluant des informations supplémentaires. Elle est mise en œuvre en ajoutant un terme de pénalité au modèle de données. Elle vous permet de conserver le même nombre de caractéristiques en réduisant l'ampleur des variables. Elle réduit l'ampleur du coefficient des caractéristiques vers zéro. Les deux types de techniques de régularisation sont L1 et L2. Un modèle de régression utilisant la technique de régularisation L1 est connu sous le nom de régression Lasso, et celui utilisant la technique de régularisation L2 est appelé régression Ridge. Régression Ridge La régression Ridge est une technique de régularisation que vous utiliseriez pour éliminer les corrélations entre les variables indépendantes (multicolinéarité) ou lorsque le nombre de variables indépendantes dans un ensemble dépasse le nombre d'observations. La régression Ridge effectue une régularisation L2. Dans une telle régularisation, la formule utilisée pour faire des prédictions est la même que pour les moindres carrés ordinaires, mais une pénalité est ajoutée au carré de l'ampleur des coefficients de régression. Cela est fait pour que chaque caractéristique ait le moins d'effet possible sur le résultat. Régression Lasso Lasso signifie Least Absolute Shrinkage and Selection Operator. La régression Lasso est une régression linéaire régularisée qui utilise une pénalité L1 qui pousse certaines valeurs de coefficients de régression à se rapprocher de zéro. En définissant des caractéristiques à zéro, elle choisit automatiquement la caractéristique requise et évite le surajustement. Donc, si l'ensemble de données a une forte corrélation, des niveaux élevés de multicolinéarité, ou lorsque des caractéristiques spécifiques telles que la sélection de variables ou l'élimination de paramètres doivent être automatisées, vous pouvez utiliser la régression Lasso. Quand l'analyse de régression est-elle utilisée ? L'analyse de régression est un outil puissant utilisé pour tirer des inférences statistiques pour l'avenir en utilisant des observations du passé. Elle identifie les connexions entre les variables se produisant dans un ensemble de données et détermine l'ampleur de ces associations et leur signification sur les résultats. Dans tous les secteurs, c'est un outil d'analyse statistique utile car il offre une flexibilité exceptionnelle. Donc, la prochaine fois que quelqu'un au travail propose un plan qui dépend de plusieurs facteurs, effectuez une analyse de régression pour prédire un résultat précis. Avantages de l'analyse de régression Dans le monde réel, divers facteurs déterminent comment une entreprise se développe. Souvent, ces facteurs sont interconnectés, et un changement dans l'un peut affecter positivement ou négativement l'autre. Utiliser l'analyse de régression pour juger comment les variables changeantes affecteront votre entreprise présente deux avantages principaux. - Prendre des décisions basées sur les données : Les entreprises utilisent l'analyse de régression lors de la planification pour l'avenir car elle aide à déterminer quelles variables ont l'impact le plus significatif sur le résultat selon les résultats précédents. Les entreprises peuvent mieux se concentrer sur les bonnes choses lors de la prévision et faire des prédictions basées sur les données. - Reconnaître les opportunités d'amélioration : Puisque l'analyse de régression montre les relations entre deux variables, les entreprises peuvent l'utiliser pour identifier les domaines d'amélioration en termes de personnes, de stratégies ou d'outils en observant leurs interactions. Par exemple, augmenter le nombre de personnes sur un projet pourrait avoir un impact positif sur la croissance des revenus. Applications de l'analyse de régression Les petites et grandes industries sont chargées d'une quantité énorme de données. Pour prendre de meilleures décisions et éliminer les conjectures, beaucoup adoptent maintenant l'analyse de régression car elle offre une approche scientifique de la gestion. En utilisant l'analyse de régression, les professionnels peuvent observer et évaluer la relation entre diverses variables et prédire par la suite les caractéristiques futures de cette relation. Les entreprises peuvent utiliser l'analyse de régression sous de nombreuses formes. Certaines d'entre elles : - De nombreux professionnels de la finance utilisent l'analyse de régression pour prévoir les opportunités et les risques futurs. Le modèle d'évaluation des actifs financiers (CAPM) qui décide de la relation entre le rendement attendu d'un actif et la prime de risque de marché associée est un modèle de régression souvent utilisé en finance pour évaluer les actifs et découvrir les coûts du capital. L'analyse de régression est également utilisée pour calculer le bêta (β), qui est décrit comme la volatilité des rendements en tenant compte du marché global pour une action. - Les compagnies d'assurance utilisent l'analyse de régression pour prévoir la solvabilité d'un assuré. Elle peut également aider à choisir le nombre de réclamations qui peuvent être soulevées dans une période spécifique. - La prévision des ventes utilise l'analyse de régression pour prédire les ventes en fonction des performances passées. Elle peut vous donner une idée de ce qui a fonctionné auparavant, de quel type d'impact cela a créé, et de ce qui peut être amélioré pour fournir des résultats futurs plus précis et bénéfiques. - Une autre utilisation critique des modèles de régression est l'optimisation des processus commerciaux. Aujourd'hui, les gestionnaires considèrent la régression comme un outil indispensable pour mettre en évidence les domaines qui ont le plus d'impact sur l'efficacité opérationnelle et les revenus, en tirant de nouvelles informations et en corrigeant les erreurs de processus. Top logiciels d'analyse statistique Les entreprises avec une culture axée sur les données utilisent l'analyse de régression pour tirer des informations exploitables à partir de grands ensembles de données. Pour de nombreuses industries de premier plan avec des catalogues de données étendus, cela s'avère être un atout précieux. À mesure que la taille des données augmente, les dirigeants s'appuient davantage sur l'analyse de régression pour prendre des décisions commerciales éclairées avec une signification statistique. Bien que Microsoft Excel reste un outil populaire pour effectuer une analyse de données de régression fondamentale, de nombreux outils statistiques plus avancés aujourd'hui produisent des résultats plus précis et plus rapides. Découvrez les meilleurs logiciels d'analyse statistique en 2023 ici. Pour être inclus dans cette catégorie, le produit logiciel d'analyse de régression doit être capable de : - Exécuter une régression linéaire simple ou une analyse de régression multiple complexe pour divers ensembles de données. - Fournir des outils graphiques pour étudier l'estimation du modèle, la multicolinéarité, les ajustements du modèle, la ligne de meilleure ajustement et d'autres aspects typiques du type de régression. - Posséder une conception d'interface utilisateur (UI) propre, intuitive et conviviale. *Ci-dessous se trouvent les 5 principales solutions logicielles d'analyse statistique du rapport Grid® de l'hiver 2023 de G2. Certains avis peuvent être édités pour plus de clarté. 1. IBM SPSS statistics IBM SPSS Statistics vous permet de prédire les résultats et d'appliquer diverses procédures de régression non linéaire qui peuvent être utilisées pour des projets commerciaux et d'analyse où les techniques de régression standard sont limitantes ou inappropriées. Avec IBM SPSS Statistics, vous pouvez spécifier plusieurs modèles de régression en une seule commande pour observer la corrélation entre les variables indépendantes et dépendantes et étendre les capacités d'analyse de régression sur un ensemble de données. Ce que les utilisateurs aiment le plus : "J'ai utilisé quelques logiciels statistiques différents. IBM SPSS est un logiciel incroyable, un guichet unique pour toutes les analyses liées aux statistiques. L'interface utilisateur graphique est élégamment conçue pour la facilité. J'ai rapidement pu l'apprendre et l'utiliser." Ce que les utilisateurs n'aiment pas : "Certaines interfaces pourraient être plus intuitives. Heureusement, de nombreuses informations sont disponibles à partir de diverses sources en ligne pour aider l'utilisateur à apprendre à configurer les tests." 2. Posit Pour rendre la science des données plus intuitive et collaborative, Posit fournit aux utilisateurs de secteurs clés des outils basés sur R et Python, leur permettant de tirer parti d'analyses puissantes et de recueillir des informations précieuses. Ce que les utilisateurs aiment le plus : "Syntaxe simple, excellentes fonctions intégrées et bibliothèques puissantes pour tout le reste. Construire n'importe quoi, des fonctions mathématiques simples aux modèles d'apprentissage automatique compliqués, est un jeu d'enfant." Ce que les utilisateurs n'aiment pas : "Son interface graphique pourrait être plus intuitive et conviviale. Il faut beaucoup de temps pour comprendre et mettre en œuvre. Inclure un gestionnaire de paquets serait une bonne idée, car il est devenu courant dans de nombreux IDE modernes. Il doit y avoir une option pour enregistrer les commandes de la console, ce qui n'est actuellement pas disponible." 3. JMP JMP est un logiciel d'analyse de données qui aide à donner un sens à vos données en utilisant des méthodes statistiques modernes et de pointe. Ses produits sont intuitivement interactifs, visuellement attrayants et statistiquement profonds. Ce que les utilisateurs aiment le plus : "Les vidéos pédagogiques sur le site Web sont excellentes ; je n'avais aucune idée de ce que je faisais avant de les regarder. Les vidéos rendent l'application très conviviale." Ce que les utilisateurs n'aiment pas : "La fonction d'aide peut être brève en termes de ce que la fonctionnalité implique, et c'est décevant car la façon dont le logiciel est configuré pour communiquer les données visuellement et intuitivement suggère la présence d'un processus de pensée scientifique logique et explicable, y compris une explication du "pourquoi". Le constructeur de graphiques pourrait également utiliser des moyens plus intuitifs pour modifier les caractéristiques de mise en page." 4. Minitab statistical software Minitab Statistical Software est un outil d'analyse de données et statistique utilisé pour aider les entreprises à comprendre leurs données et à prendre de meilleures décisions. Il permet aux entreprises de tirer parti de la puissance de l'analyse de régression en analysant de nouvelles et anciennes données pour découvrir des tendances, prédire des modèles, découvrir des relations cachées entre les variables et créer des visualisations époustouflantes. Ce que les utilisateurs aiment le plus : "Le meilleur programme pour apprendre et analyser car il vous permet d'améliorer les paramètres avec des graphiques et des graphiques de régression incroyablement précis. Cette plateforme vous permet d'analyser les résultats ou les données avec leurs valeurs idéales." Ce que les utilisateurs n'aiment pas : "Le prix du logiciel est élevé et la licence est problématique. Vous devez être en ligne ou connecté au VPN de l'entreprise pour la licence, surtout pour une utilisation en entreprise. Donc, sans connexion Internet, vous ne pouvez pas l'utiliser du tout. De plus, si vous êtes en train de faire une analyse et que vous perdez votre connexion Internet, vous risquez de perdre le projet ou l'étude sur laquelle vous travaillez." 5. EViews EViews offre des outils conviviaux pour effectuer la modélisation et la prévision des données. Il fonctionne avec une interface innovante et facile à utiliser orientée objet utilisée par les chercheurs, les institutions financières, les agences gouvernementales et les éducateurs. Ce que les utilisateurs aiment le plus : "En tant qu'économiste, ce logiciel est très utile car il m'aide à mener des recherches avancées, à analyser des données et à interpréter les résultats pour des recommandations politiques. Je ne peux tout simplement pas me passer d'EViews. J'aime ses mises à jour récentes qui ont également amélioré l'interface utilisateur." Ce que les utilisateurs n'aiment pas : "D'après mon expérience, importer des données depuis Excel n'est pas facile avec EViews par rapport à d'autres logiciels statistiques. Il faut développer une expertise lors de l'importation de données dans EViews à partir de différents formats. De plus, le prix du logiciel est très élevé." Collecter des données ne rassemble pas de mousse. La collecte de données est devenue facile dans le monde moderne, mais il ne suffit pas de les rassembler. Les entreprises doivent savoir comment tirer le meilleur parti de ces données. L'analyse aide les entreprises à comprendre les informations disponibles, à en tirer des informations exploitables et à prendre des décisions éclairées. Les entreprises doivent connaître à fond le processus d'analyse des données pour affiner les opérations, améliorer le service client et suivre les performances. Apprenez-en plus sur les différentes étapes du processus d'analyse des données et mettez-les en œuvre pour réussir.

Vous voulez en savoir plus sur Logiciel d'analyse statistique ? Découvrez les produits Analyse statistique.

Devyani Mehta
DM

Devyani Mehta

Devyani Mehta is a content marketing specialist at G2. She has worked with several SaaS startups in India, which has helped her gain diverse industry experience. At G2, she shares her insights on complex cybersecurity concepts like web application firewalls, RASP, and SSPM. Outside work, she enjoys traveling, cafe hopping, and volunteering in the education sector. Connect with her on LinkedIn.