No espaço de tecnologia empresarial, a aparentemente interminável evolução dos insights orientados por dados continua a todo vapor — mas quando isso vai acabar?
(Quando os dados não forem mais úteis, ou seja, nunca.)
Em colunas anteriores, discuti a transformação dos sistemas de suporte à decisão de antigamente para as plataformas de análise de hoje. A última expansão em 2020 é impulsionada pela inteligência artificial, ou pelo menos é rotulada como tal. Na realidade, é o aprendizado de máquina — um ramo da IA que entrega a maioria dos casos de uso atuais de IA — que trouxe à tona um termo cada vez mais popular: análise aumentada.
A indústria está ansiosa para colocar novas palavras na frente de análise — negócios, dados, edge, distribuída, em tempo real — e sou tão culpado quanto o próximo analista por ceder a essa tentação. Mas defenderei o uso de análise aumentada (mesmo que eu não tenha inventado) porque é fundamental para as empresas se tornarem genuinamente orientadas por dados.
A análise aumentada é a mais recente adição ao contínuo de análise
Então, como devemos definir análise aumentada? Uma rápida pesquisa na internet renderá muitas possibilidades. Simplificando, análise aumentada é o uso de aprendizado de máquina para automatizar a criação e entrega de insights orientados por dados. Pense nisso como trabalhando em três áreas-chave da jornada de dados:
1. Encontrar e gerenciar dados
O aprendizado de máquina (ML) pode ser usado em várias áreas de gerenciamento de dados, desde ajudar com a formatação inicial, escanear conexões entre diferentes conjuntos de dados, avaliar a qualidade dos dados, e assim por diante. O gerenciamento de dados tem sido uma das maiores barreiras para mais pessoas trabalharem com dados — já que a maioria não possui as habilidades necessárias. Automatizar parte desse desafio é um grande avanço.
2. Experiência de descoberta
Ok, os dados estão preparados: E daí? Muitas pessoas falam sobre descoberta como se exigisse habilidades limitadas ou nenhuma habilidade. A maioria das experiências de descoberta de dados exigiu habilidades significativas de dados e análise para começar a gerar insights. Aumentar a descoberta de dados significa ajudar os usuários a entender o que são os dados aos quais têm acesso e como eles se conectam a outros conjuntos de dados, além de fornecer orientações para ajudá-los a unir e analisar dados de uma maneira que faça sentido analítico.
3. Apresentação de insights
A visualização de um relatório de vendas regional recém-criado funciona em um gráfico de pizza, ou ficaria melhor como um gráfico de barras empilhadas? Um usuário potencialmente não perceberia que os dados poderiam ser colocados em um mapa e codificados por cores, mas uma ferramenta de análise aumentada poderia. Ajudar as pessoas a consumir informações da maneira mais fácil é fundamental, e nem todos podem ser especialistas em visualização. Desde sugerir como a informação é apresentada, até alertas inteligentes dentro de outro aplicativo — aumentar a entrega de análise ajuda mais pessoas a obter mais dos dados.
Nomes familiares como IBM, Oracle, Salesforce, SAP, Tableau, e Qlik, entre outros, têm estado ocupados aumentando a experiência do usuário de seus produtos de análise. Isso é uma boa notícia tanto para usuários experientes quanto para novatos em análise. Mas, isso significa que a análise aumentada representa o estado final e maduro da análise de dados? Claro que não!
A ciência de dados está se movendo do laboratório para o chão de fábrica
Enriquecer plataformas de análise com IA é o primeiro passo em uma longa jornada pela frente: o encontro e a fusão final da análise e da ciência de dados de hoje.
O uso de aprendizado de máquina para aumentar e automatizar recursos de análise é análogo ao desenvolvimento de carros autônomos. Primeiro vieram os sensores de estacionamento e computadores de viagem, depois a assistência de estacionamento e a frenagem automática; os desenvolvimentos continuarão até que possamos entregar o veículo totalmente autônomo. Da mesma forma, à medida que a análise aumentada se torna mais inteligente, sua participação nos casos de uso de criação de insights crescerá, e ou as ciências de dados recuarão — ou, mais provavelmente, encontrarão maneiras novas e cada vez mais complexas de interrogar dados. Em outras palavras, ferramentas e técnicas analíticas do laboratório científico farão seu caminho para o uso regular no chão de fábrica.
A ciência de dados está passando por sua própria transformação, de uma vasta coleção de ferramentas díspares, mas interdependentes, para uma plataforma integrada. Aqui na G2, recentemente atualizamos nossa taxonomia para abordar essas mudanças, adicionando uma nova categoria, plataformas de ciência de dados e aprendizado de máquina, à nossa taxonomia de software de IA.
Conectar a jornada de dados na ciência de dados é semelhante à da análise — começando com a construção e teste de modelos, treinando o modelo em dados relevantes, e passando pela operacionalização e monitoramento e gerenciamento de modelos. Muitos fornecedores no espaço estão reunindo ferramentas e funcionalidades em uma única plataforma, o que ajuda os usuários finais a melhorar a eficiência de seus projetos. Além disso, essas plataformas ajudam a garantir que o trabalho dos cientistas de dados seja compatível e comparável, e trazem funcionalidades como governança embutida, linhagem e recursos de reprodutibilidade que aumentam a confiança nos modelos criados.
Leia Mais: O G2 sobre IA Empresarial & Análise: IA — O que é Realmente & Por que Importa? → |
Usando a necessidade de investimento em dados para permitir melhores análises
O apetite crescente pela análise de dados gerou múltiplas evoluções de software — o que eu chamo de contínuo de análise. Como discutido em um dos meus artigos recentes, há décadas de história aqui, e eu prevejo firmemente que, à medida que as plataformas de ciência de dados e aprendizado de máquina se consolidam e padronizam funcionalidades, sua órbita em torno das plataformas de análise se aproximará cada vez mais. Atuando como um freio nesses desenvolvimentos continuará a ser, bem, o que sempre esteve no caminho da análise: a disponibilidade de dados.
As organizações raramente estão sem dados; geralmente o problema é bastante inverso, e muitas lutam para lidar com o volume de dados disponíveis e o que deve ser retido. No entanto, a disponibilidade de dados que atendem ao caso de uso — ou seja, encontrá-los, acessá-los fisicamente, garantir que sua qualidade seja suficiente e formatá-los para um padrão consumível por análise — tem sido um problema consistente. Além disso, obter apoio para os investimentos necessários para fornecer habilidades de gerenciamento de dados, software e um programa contínuo de governança tem sido tradicionalmente difícil, e continua sendo. As inúmeras opções de armazenamento e formato de dados agora disponíveis apenas aumentam esse desafio, com dados armazenados em tudo, desde dispositivos conectados e nuvens públicas, até mainframes críticos para a missão.
Então, como resolver o dilema dos dados? Existem várias opções para organizações que precisam investir em seus dados, e talvez não surpreendentemente, a regulamentação é um dos principais impulsionadores. As leis de retenção de dados — o GDPR da UE e o CCPA da Califórnia, já em vigor, estão entre uma gama crescente de legislações semelhantes — estão adicionando poder de fogo sério ao caso de investimento em capacidades de gerenciamento de dados, como qualidade de dados, catálogos de dados, gerenciamento de dados mestres, e novos armazenamentos de dados em nuvem.
Mas investir porque você deve para minimizar riscos dificilmente é a perspectiva mais empolgante (embora extremamente importante). Para reforçar esses casos, a G2 sugere focar no que ter acesso a dados melhores possibilita. Desde análises mais aprofundadas levando a melhores resultados de negócios, até automação impulsionada por aprendizado de máquina — as opções apresentadas por plataformas de análise que consomem esses dados, combinadas com plataformas emergentes de ciência de dados, são substanciais.
Quer aprender mais sobre Software de Inteligência Artificial? Explore os produtos de Inteligência Artificial.

Tom Pringle
Tom is Vice President of Market Research at G2, and leads our analyst team. Tom's entire professional experience has been in information technology where he has worked in both consulting and research roles. His personal research has focused on data and analytics technologies; more recently, this has led to a practical and philosophical interest in artificial intelligence and automation. Prior to G2, Tom held research, consulting, and management roles at Datamonitor, Deloitte, BCG, and Ovum. Tom received a BSc. from the London School of Economics.