Pular para o conteúdo principal

BI e o software de código aberto

O impacto da crise financeira tem obrigado muitas empresas a cortar custos, ao mesmo tempo que a concorrência aumenta. É neste contexto, que o analista do Gartner Group recentemente informou que o interesse em alternativas open source para soluções de business intelligence (bi), em relação às ferramentas comerciais, tem sido crescente.

Em um relatório divulgado há algumas semanas, "Open-Source Business Intelligence Tools Production Deployments Will Grow Five-Fold through 2012", o analista afirmou que, embora nas alternativas de código aberto, ainda faltam algumas funcionalidades importantes que podem ser encontradas nas aplicações comerciais, o interesse no menor custo é crescente, ferramentas de código aberto a partir de empresas como JasperSoft, Pentaho.

Segundo o Gartner, o custo médio de um projeto de BI usando solução open-source é de cerca de US$ 30.000,00 (R$ 60.000,00) por ano aproximadamente, mas alguns acabam ultrapassando os US$ 500.000, valores este que acabam sendo similar ao gasto de um projeto de BI usando uma solução comercial.

O analista ainda acrescentou que enquanto as empresas de software comercial tradicionais, rejeitam a idéia de que seus modelos de negócio poderiam estar sob a ameaça de aplicações de código aberto, outras estão respondendo à esta possível ameaça.

Mas, enquanto algumas empresas parecem estar aproveitando o potencial do código aberto para ajudá-los a cortar custos e evitar a cobrança punitiva de alguns fornecedores de software comercial, outros têm rejeitado a idéia de utilizar software open-source como um risco para a sua infra-estrutura.

E você o que acha sobre tudo isso. Afinal o software de código aberto é um risco? As empresas deveriam adotar o software de código aberto em operações de missão crítica?

Participe, mande a sua opinião, até a próxima.

Um grande abraço a todos!

Comentários

Postagens mais visitadas deste blog

(A) Data Science in Practice with Python

The top trending in Twitter or other social network is the term “data science”. But ...
What’s the data science? How do real companies use data science to make products, services and operations better? How does it work? What does the data science lifecycle look like?  This is the buzzword at the moment. A lot of people ask me about it. Are many questions. I’ll try answer all of these questions through of some samples.

Sample 1 - Regression

WHAT IS A REGRESSION? This is the better definition what I found [Source: Wikipedia] - Regression analysis is widely used for prediction and forecasting, where its use has substantial overlap with the field of machine learning.
HOW DOES IT WORK? Regression analysis is also used to understand which among the independent variables are related to the dependent variable, and to explore the forms of these relationships. In restricted circumstances, regression analysis can be used to infer causal relationships between the independent and dependent variable…

(A) Tucson Best Buy Analysis

“Data! Data! Data!” he cried impatiently.  “I can’t make bricks without clay.” —Arthur Conan Doyle
The Ascendance of Data

We live in a world that’s drowning in data. Websites track every user’s every click. Your smartphone is building up a record of your location and speed every second of every day. “Quantified selfers” wear pedometers-on-steroids that are ever recording their heart rates, movement habits, diet, and sleep patterns. Smart cars collect driving habits, smart homes collect living habits, and smart marketers collect purchasing habits. The Internet itself represents a huge graph of knowledge that contains (among other things) an enormous cross-referenced encyclopedia; domain-specific databases about movies, music, sports results, pinball machines, memes, and cocktails; and too many government statistics (some of them nearly true!) from too many governments to wrap your head around.
Buried in these data are answers to countless questions that no one’s ever thought to ask. In…

(T) Como indexar uma tabela Fato - (Best Practice)

A base de qualquer projeto de bi é ter um bom dw/data mart. Podemos falar em modelagem star-schema durante dias, sem falar nas variações do snowflake, mas o objetivo principal deste artigo é apontar algumas negligências que tenho percebido no tratamento da tabela fato. Tabela esta que é o principal pilar da casa que reside um modelo star-schema.

Ouço muitas vezes os clientes reclamando do desempenho das consultas enviadas contra o seu dw/data mart, ou do tempo de resposta das análises solicitadas ao bi. Isto é realmente inaceitável, não só numa perspectiva de implantação do projeto, mas também de desempenho da entrega das informações.

Como eu mencionei anteriormente o meu objetivo neste artigo, é alertar sobre a importância da indexação da tabela fato: o que deveria ser, porque é necessário, porque chaves compostas são boas e más, e porque você deveria se preocupar com isso.

Então, vejamos:

|a| Indexação padrão (default):
De forma rápida, todas as colunas de chave estrangeira (FK) devem …