Quantcast
Channel: Tutoriais Pentaho - Ambiente Livre
Viewing all 53 articles
Browse latest View live

Instalando o Pentaho FusionCharts plugin

$
0
0

FusionCharts
O FusionCharts é uma biblioteca de gráficos em HTML5 ou Flash e Javascript. A Xpand IT implementou um plugin para plataforma Pentaho que permite renderizar o FusionCharts. Este encaixe permite que o uso FusionCharts como uma alternativa para as bibliotecas de gráficos que são atualmente fornecidas com a plataforma. Ele pode ser usado para exibir mapas atraentes na console e sobre painéis CDF. O FusionCharts funciona na versão Community Edition do Pentaho ( CE ) com também funciona com a versão licenciada do Pentaho Enterprise Edition ( EE ).



Para uma instalação avançada já integrando o FusionCharts ao CDE das CTools leia este outro tutorial: Instalando o FusionCharts Component Integrado com o CDE - Ctools. Para uma instalação simples para testar o plugin siga os passos a seguir.

Instalando o plugin do FusionChart no Pentaho Business Intelligence Server.

  1. Realize o o download da página do projeto http://code.google.com/p/pentaho-fc-plugin/ , o mesmo pode direcionar para a página da empresa desenvolvedora Xpand IT para coleta de algumas informações mais disponibilizará um link por e-mail ou após preencher o formulário.

  2. Serão oferecido para baixar o plugin para pentaho e exemplos desenvolvidos em dois arquivos :

    fusion_plugin-X.0.0.zip – Arquivos de Instalação do Plugin
    fusion_samples-X.0.0.zip – Arquivos de exemplos

    Onde o X representa a versão atual do plugin do FusionChart.

  3. Para instalar o plugin descompacte o arquivo fusion_plugin-X.0.0.zip dentro do diretório pentaho-solutions/system.

  4. Para instalar os exemplos descompacte o arquivo fusion_samples-X.0.0.zip e acesse o diretório /fusion-samples/bi-developers/ do arquivo extraído e copie todo seu conteúdo (  diretório /fusion-charts ) para a o diretório /pentaho-solutions/bi-developers

  5. A extensão de alguns arquivos do plugin são *.xfusion estes são os arquivo que são listados para apresentação nas solutions do PUC , sendo este o que devemos configurar para atribuirmos os acessos.

    Para Liberar as configurações de acessos a outras extensões de arquivos edite o XML pentaho.xml que pode ser encontrado no diretório /biserver-ce/pentaho-solutions/system

    procure pela tag XML  ACL-FILES.

    Nesta TAG você terá uma lista das extensões liberadas para configuração de acesso no Pentaho User Console, separadas por virgula.

    Exemplo na versão 4.5:

    xaction,url,prpt,prpti,xdash,xcdf

    Para habilitar a configuração aos seus dashboards desenvolvidos com FusionChart você deve inserir a extensão xfusion

    xaction,url,prpt,prpti,xdash,xcdf,xfusion



  6. Reinicie o PUC ( Pentaho User Console ) para aplicar as modificações ( stop-pentaho e start-pentaho ).

  7. Acesse o Solution BI Developers e veja os exemplos desenvolvidos com o Plugin na sub-solution Fusion Chart, abaixo algumas imagens de dashboards FusionChart.
    alt



  8. Alguns gráficos no CDE não devem aparecer perfeitamente pois para que isso funcione deve incluir um component custom no CDE, pois o FusionCharts não é nativo no CDE.

    Veja mais em : http://code.google.com/p/pentaho-fc-plugin/wiki/IntegrationCDE


Referências
Site Oficial do Projeto FusionCharts  http://www.fusioncharts.com
Manual do Pentaho Fusion Chart Plugin http://code.google.com/p/pentaho-fc-plugin/wiki/Manual


Sobre a Ambiente Livre

A Ambiente Livre Tecnologia e especialista em utilização do Pentaho BI para geração de negócios com soluções open source. fornecemos implantação, integração, consultoria e treinamento em Pentaho BI e CTools entre outros Open Source para gestão empresarial.


Conectando o Pentaho ao Banco de Dados Oracle

$
0
0


Com o Pentaho podemos utilizar qualquer SGBD para armazenamento do nosso DatawareHouse ou Para extração de dados e apresentação de relatórios. Dois itens são importantes para conectar o Pentaho ao SGBD Oracle , primeiramente o Driver estar nos seus devidos locais de bibliotecas externas e a string de conexão estar configurada corretamente. 


Driver

O Driver da Oracle não pode ser distribuído juntamente com aplicações sem um contrato de OEM , porem o mesmo pode ser baixado gratuitamente do site do fabricante : http://www.oracle.com/technetwork/indexes/downloads/index.html

Faca o download de acordo com sua versão , quando publicamos este artigo o mais atual era o ojdbc14.jar , que poderia ser usado para Oracle 9,10 e 10g


Para o Ambiente Server do Pentaho  devemos adicionar o driver em duas localidades ( diretórios ):

PAC - Pentaho Administrator Console

 ../administrator-console/jdbc

PUC - Pentaho User Console

../biserver-ce/tomcat/lib

A necessidade te termos nos dois ambientes estão diretamente ligadas aos dois Containers Java utilizados pelo Pentaho ( Tomcat e Jetty ) utilizados até a versão 4.8 que no momento da escrita deste artigo era a atual. Na versão 5 teremos apenas um diretório de drivers que provavelmente será apenas o do Tomcat  ( ../biserver-ce/tomcat/lib )


String de Conexão

Cada SGBD tem a string de conexão com caracteristicas diferentes , quando queremos usar uma conexão JNDI ou JDBC.

A String de Conexão JDBC e JNDI do Oracle e composta por alguns parametros , seguem quais são e uma breve descrição sobre cada um deles:

  • Driver Class:  Classe Java responsável pela conexão -> Exemplo:  oracle.jdbc.driver.OracleDriver
  • Tipo da Conexão: JDBC
  • Nome do Banco de Dados: Nesta caso oracle:thin que é o Padrão para o Oracle DB.
  • Nome ou IP do Servidor: IP ou DNS onde se encontra o servidor do Banco de Dados Oracle, caso seu pentaho e Oracle estejam na mesma maquina informa localhost.
  • Porta: Porta de conexão com o banco de Dados , A Porta padrão do Oracle é a 1531 , caso seu banco tenha outro padrão de portal altere conforme sua necessidade.
  • SID - Nome do SID ou Oracle System ID , especificado no arquivo tnsnames.ora, geralmente conforme abaixo porem dependendo da versão ou da customização de instalação pode teroutras referencias como XE etc.


Exemplo de um tnsnames.ora com o SID chamado ORCL

ORCL =
 (DESCRIPTION =
   (ADDRESS = (PROTOCOL = TCP)(HOST = myhost)(PORT = 1521))
   (CONNECT_DATA =
     (SID = ORCL)
   )
 )

Após saber a funcionalidade de cada um dos parametros podemos criar a nossa string de conexão com o Oracle no Pentaho Server usando a seguinte linha de referencia  e alterando seus valores:


jdbc:oracle:thin:@:porta:SID


Para um banco de Dados Oracle  no servidor oracle.ambientelivre.com.br na porta 1521 e no SID XE teriamos :

jdbc:oracle:thin:@oracle.ambientelivre.com.br:1521:XE


Esta string é solicitada do Pentaho Administrator Console ou seus parametros no Pentaho User Console quando for criar novas conexões do Pentaho para o Oracle.

Conexão com Oracle nas CTools - CDE

O data source do grupo sqlover sqlJdbc do módulo CDE, pode ser configurado conforme paramêtros  do exemplo a seguir:

Name: Nome da query
Name: oracle.jdbc.driver.OracleDriver
URL:jdbc:oracle:thin:@host:porta:SID
user:utilizador
password:teste

Query: select sysdate from dual


Sobre a Ambiente Livre

A Ambiente Livre Tecnologia e especialista em utilização do Pentaho BI para geração de negócios com soluções open source. fornecemos implantação, integração, consultoria e treinamento em Pentaho BI entre outros Open Source para gestão empresarial.


Instalando o Plugin Saiku Analitycs no Pentaho CE

$
0
0


O Saiku Analitycs é um cliente web disponível como  plugin para o Pentaho BI Server. Ele usa o Pentaho Analisys ( Mondrian ) para proporcionar uma forma fácil de usar o recurso de Cubos OLAP com uma experiência simples para usuário final.

Este tutorial foi escrito baseado na versão 2.4 do Saiku Analitycs e Instalação no Pentaho BI Server 4.8 Community Edition para instalação via donwload do site oficial do projeto Saiku, porém o mesmo pode ser realizados via MarketPlace disponível a partir do  Pentaho 4.8 CE, que  tem um procedimento similar de forma automática.


Se quiser experimentar o mais recente (instável) , visite http://meteorite.bi/saiku

Como Instalar o Saiku Analitycs

  1. Pare seu servidor Pentaho Bi Server ( PUC e PAC ).

  2. Faça o download de http://meteorite.bi/saiku do Plugin ( Saiku Pentaho BI Server Plugin 2.x ) e descompacte-o na pasta biserver-ce/pentaho-solutions/system/ , será criada uma pasta com o nome saiku

  3. Para colocar os Cubos OLAP do Saiku sob a ACL ( Controle de Acesso ) do Pentaho, adicionar a extensão .saiku para a tag acl-files do arquivo pentaho.xml que pode ser encontrado na pasta biserver-ce/pentaho-solutions/system. Edite o mesmo conforme modelo abaixo:

    ... xaction,url,prpt,prpti,xdash,xcdf,saiku...

  4. Reinicie ser servidor Pentaho ( start-pentaho )

  5. Acesse seu PUC e terá mais um ícone no mesmo para o Saiku Analitycs conforme imagem abaixo:

    alt



  6. Pronto pode utilizar o Saiku Analitycs!

Apartir da versão 4.8 do Pentaho é possível fazer a instalação diretamente via marketplace.



Fonte e mais informações no site Oficial do Projeto Saiku :  http://docs.analytical-labs.com/ 

Sobre a Ambiente Livre

A Ambiente Livre Tecnologia e especialista em utilização do Pentaho BI para geração de negócios com soluções open source. fornecemos implantação, integração, consultoria e treinamento em Pentaho BI e Saiku Serverm Report e Analytics.

Glossário Pentaho Business Intelligence

$
0
0

Glossário com termos técnicos e abreviações utilizadas para assuntos relacionados a Pentaho Business Intelligence Open Source. 

CE - Community Edition - Do inglês Community Edition, traduzido como Edição da Comunidade, referência usada para a versão desenvolvida em parceria com a comunidade open source. Sigla muito usada nas extensões dos arquivos de instalação ( ex.: pentaho-server-ce-8.3.0.0-371.zip);

BI - Business Intelligence - Do termo inglês BI (Business Intelligence), pode ser traduzido como Inteligência de negócios, refere-se ao processo de coleta, organização, análise, compartilhamento e monitoramento de informações que oferecem suporte a gestão de negócios;

PDI - Pentaho Data Integration - Ferramenta contida na plataforma Pentaho, originalmente chamada de Kettle, responsável por integração de diversas fontes de dados, utilizado no Pentaho para construção do Data warehouse de uma aplicação de Business Intelligence. o seu principal executável é o software spoon;

PRD - Pentaho Report Designer - Ferramenta que permite profissionais de BI criarem relatórios detalhados e de qualidade, além de ser altamente flexível com a manipulação de dados para a apresentação nos relatórios;

PME - Pentaho Metadata Editor - A ferramenta simplifica a criação de relatórios de metadados, que são dados sobre dados. o PME mapeia a estrutura de dados físicos para um modelo de negócios mais lógicos;

PSW - Pentaho Schema Workbench - Ferramenta que permite editar e criar modelos multidimensionais (Mondrian). Os profissionais de BI poderão criar modelos Mondrian graficamente ou defini-los codificando manualmente arquivos XML;

PUC - Pentaho User Console - Interface do servidor Pentaho destinado a uso pelos usuários do sistema, com disponibilização de relatórios, dashboards e cubos divididos por soluções;

Kettle - Ferramenta para integração de dados, faz parte da solução Pentaho, onde é responsável pelo processo de Extração, Transformação e Carga (ETL), renomeado pela Pentaho para Pentaho Data Integration ou simplesmente PDI;

ETL - Do inglês Extract Transform Load (Extração Transformação Carga), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim a carga dos dados em um Data Mart ou um Data Warehouse. É considerada uma das fases mais críticas do Data Warehouse e/ou Data Mart;

PAT - Pentaho Analysis Tool - Um visualizador de cubos OLAP, seu nome foi renomeado para Saiku;

Saiku - É um sistema modular de código aberto, oferecendo suíte de análise OLAP leve que permanece facilmente incorporável, extensível e configurável. O Saiku foi disponibilizado também como um plugin Pentaho para visualização de cubos Mondrian, anteriormente o Saiku se chamava PAT (Pentaho Analysis Tool);

JPivot - JPivot é uma biblioteca de tags JSP personalizadas que apresenta uma tabela OLAP e permitir que os usuários executem navegações OLAP típicas como slice and dice, drill-down e roll-up. Ele usa Mondrian como servidor OLAP. JPivot também suporta XMLA datasource acesso. Porém a mesma não esta sofrendo mais atualizações então recomenda-se migrar para Pivot4J ou Saiku.

Pivot4J - Pivot4J é uma biblioteca de tags JSP personalizadas que apresenta uma tabela OLAP, fork do jPivot, e permitir que os usuários executem navegações OLAP típicas como slice and dice, drill-down e roll-up. Ele usa Mondrian como servidor OLAP. Pivot4J também suporta XMLA datasource acesso.

Spoon - Ferramenta gráfica que se desenha e valida todo processo do Pentaho Data Integration (transformações e jobs);

PAN - É a ferramenta de linha de comando Pentaho Data Integration para executar transformações a partir de um repositório Pentaho Data Integration (banco de dados ou empresa) ou de um arquivo local;

Kitchen - É a ferramenta que executa jobs à partir de um repositório Pentaho Data Integration (banco de dados ou empresa) ou de um arquivo local;

CTools - É um conjunto de ferramentas para construção de dashboards para a Suite Pentaho BI Open Source, utilizando tecnologias da web como JavaScript, CSS e HTML;

CDF - Community Dashboard Framekork - Principal componente das CTools.

Step  - Representa os passos dentro de uma transformação, onde podem ser agrupadas por Inputs, outputs e etc;

Hop - Define o fluxo de dados entre dois passos chamados de steps (conexão).

Data Lake - Termo criado pelo CTO (Chief Technical Officer) do Pentaho, James Dixon, para descrever um componente importante no universo da análise de dados. O data lake é um repositório que centraliza e armazena todos os tipos de dados gerados pela e para a empresa. Os dados são depositados ainda em estado bruto, sem o processamento, análise e até mesmo uma governança adequada.

Este Glossário esta em constante atualização, o mesmo é utilizado nos materiais técnicos desenvolvidos pela Ambiente Livre em seus treinamento de Pentaho BI.

{loadposition sobre-ambientelivre-bi}

 

Conhecendo o Pentaho BI Server - Arquitetura e infraestrutura

$
0
0

O Pentaho BI Server é responsável por toda a camada servidora da plataforma do Pentaho, fornece a arquitetura e infraestrutura necessária para a construção de soluções para business intelligence (BI).

Serviços essenciais do Pentaho BI Server:

  1. Autenticação;
  2. Logs;
  3. Auditoria;
  4. Serviços web;
  5. Motores de regras de negócio;
  6. Mecanismo para integração com relatórios;
  7. Mecanismo para integração de análises;
  8. Mecanismo para integração com dashboards;
  9. Mecanismo para integração com mineração de dados.

Sua arquitetura é baseada em plug-in permitindo que a totalidade ou parte da plataforma seja incorporada a aplicações de terceiros.
O Pentaho BI Server é composto por diversos outros aplicativos Open Source, entre eles:

Apache Tomcat

 Servidor Web Java,  especialista em aplicações J2EE, que é a tecnologia ao qual o Pentaho Bi Server foi desenvolvido,  mais especificamente o tomcat é um contêiner de servlets. O Tomcat possui algumas características próprias de um servidor de aplicação, porém não pode ser considerado um servidor de aplicação por não preencher todos os requisitos necessários.
http://tomcat.apache.org

Apache Jackrabbit

 O repositório de conteúdo Apache Jackrabbit ™ é uma implementação totalmente em conformidade do API de Repositório de Conteúdo para Java Technology (JCR, especificado em JSR 170 e JSR 283). Um repositório de conteúdo é um armazenamento hierárquico com suporte para conteúdo estruturado e não estruturado, pesquisa de texto completo, versão, transações, observação e muito mais.
https://jackrabbit.apache.org

 Spring Security

 Spring Security é uma aplicação para controle de autenticação forte e altamente personalizável, possui quadro de controle nos acessos.  É o padrão de fato para proteger aplicativos baseados em Spring. O mesmo se integra ao Tomcat e ao Pentaho BI Server para administração da segurança do servidor de aplicação.
https://spring.io 

Hibernate

 O Hibernate é um framework para o mapeamento objeto relacional escrito na linguagem Java, mas também é disponível em .Net como o nome NHibernate. No pentaho ele e responsável pelo mapeamento das bases de dados para o data warehouse.
https://hibernate.org 

Quartz

 O Quartz é um agendador (scheduler) open source, serviço de agendamento de tarefas que podem ser integrados ou utilizados ao longo de praticamente qualquer Java EE ou aplicativo Java SE.
http://www.quartz-scheduler.org

Hyper SQL (HSQLDB)

 O HSQLDB (do inglês Hyperthreaded Structured Query Language Database) é um servidor de banco de dados (SGBD), de código aberto, escrito totalmente na linguagem Java. Não é possível compará-lo, em termos de robustez e segurança com outros servidores SGBD, como Oracle ou Microsoft SQL Server, entretanto o HSQLDB é uma solução simples, que utiliza poucos recursos e que possui bom desempenho. Devido a essas características, ele é bastante utilizado em aplicações que são executadas em desktops e que necessitam interagir com uma camada de persistência através da linguagem SQL. A suíte office OpenOffice/ BrOffice, na sua versão 2.0, inclui o HSQLDB como engine de armazenamento de dados.
http://hsqldb.org 

{loadposition sobre-ambientelivre-bi}

 

 

 

 

 

 

 

 

Livros e e-books sobre Pentaho e conceitual de business intelligence

$
0
0

Nesta página selecionamos os principais livros que descrevem especificamente sobre a plataforma de BI Open Source: Pentaho Business Intelligence. Também listamos livros que auxiliam no processo de conhecimento sobre conceitos relacionados a Business Intelligence independente da ferramenta.

Algumas Suites de BI proprietárias e livros genéricos possuem opções gratuitas para downloads, no qual podem ajudar no processo de aprendizado. Grande parte dessas informações foram utilizadas como base no desenvolvimento de nossos materiais didáticos nos Treinamentos em Pentaho Business Intelligence que oferecemos.
Para os iniciantes recomendamos nesse primeiro momento a leitura de livros conceituais, pois ainda não sabem exatamente os propósitos de uma solução de Business Intelligence. Após adquirir  o conceito do BI sugerimos se aprofundar no aprendizado da Suite Pentaho.

O assunto dos livros foram organizados em níveis e sub níveis de categoria, sejam conceituais ou de softwares. A lista é constantemente atualizada pela equipe da Ambiente Livre, fazendo com que os consultores sempre utilizem as melhores praticas em seus projetos.

Livros Específicos Pentaho Business Intelligence

 

Plataforma Pentaho

 

Pentaho Solutions - Business Intelligence and Data Warehousing with Pentaho and MySQL

Este guia prático escrito por dois grandes participantes da comunidade Pentaho. O livro cobre todos os componentes do Pentaho BI Suite. Você aprenderá a instalar, usar e manter o Pentaho - e encontrará muitas discussões de fundo que o atualizarão completamente sobre os conceitos de BI e Pentaho.
Explica também como criar e carregar um data warehouse com o Pentaho Kettle para integração de dados / ETL, criar manualmente relatórios JFree (serviços de pentaho reporting) usando consultas SQL diretas, criar cubos Mondrian (serviços de análise Pentaho) e anexá-los ao navegador de cubos do Jpivot.

Linguagem: Inglês
Autores: Roland Bouman, Jos van Dongen
648 páginas - Agosto 2009
Editora: John Wiley Consumer 

Pentaho na Prática: Segunda Edição 

Este livro vai te ajudar a aprender a usar a Versão 4.8 da suite Pentaho para construir soluções de BI. É um livro principalmente técnico, mas você não precisa conhecer BI ou Pentaho para aproveitá-lo, pois ele avança paulatinamente, com minuciosas descrições.
A segunda edição traz o mesmo conteúdo da primeira, cobrindo a Suite Pentaho 4.8 (não inclui CTools), agora com uma editoração de qualidade superior, resultando em um livro de melhor qualidade.

Linguagem: Português
Autores: de Salles, Fábio, Moreno de Souza, Caio, Cesar Domingos
670 páginas - Julho 2016
Formato: eBook Kindle 

Learning Pentaho CTools

Adquira sofisticação com os recursos do CTools e crie soluções de análise ricas e personalizadas usando o Pentaho.
Se você é um desenvolvedor do CTools e gostaria de expandir seu conhecimento em criar painéis interativos, estruturas atraentes e visualizações de dados que podem fazer a diferença, esse é o livro certo para você.

Linguagem: Inglês
Autores: Miguel Gaspar
367 páginas - Maio 2016
Editora: Packt Publishing

  

Kettle - Pentaho Data Integration

 

Pentaho Data Integration Cookbook - Second Edition

O Pentaho Data Integration Cookbook Second Edition é escrito em um formato de livro de receitas. Isso permite que você vá diretamente para o seu tópico de interesse ou siga os tópicos ao longo de um capítulo para obter um conhecimento profundo. O Cookbook de Integração Segunda Edição foi desenvolvido para desenvolvedores familiarizados com o básico do Kettle, mas que desejam avançar para o próximo nível. Também é voltado para usuários avançados que desejam aprender a usar os novos recursos do PDI, bem como práticas recomendadas para trabalhar com a Kettle.

Linguagem: Inglês
Autores: Alex Meadows, Adrián Sergio Pulvirenti, María Carina Roldán
411 páginas - Dezembro 2013
Editora: Packt Publishing 

Pentaho Kettle Solutions- Building Open Source ETL Solutions with Pentaho Data Integration

Guia completo para instalação, configuração e gerenciamento de Pentaho Kettle. Se você é um administrador de banco de dados ou desenvolvedor, primeiro você terá noções básicas de Kettle e como aplica-lo para criar soluções ETL, depois avançar para os conceitos especializados, tais como clustering, extensibilidade e modelos de dados vault. Aprenda a projetar e construir todas as fases de uma solução de ETL.

Linguagem: Inglês
Autores: Matt Casters, Roland Bouman, Jos van Dongen
720 páginas - Setembro 2010
Editora: Wiley 

Learning Pentaho Data Integration 8 CE

O Pentaho Data Integration (PDI) é um ambiente gráfico e intuitivo, com design de arrastar e soltar e poderosos recursos Extract-Tranform-Load (ETL). Este livro mostra e explica os novos recursos interativos do Spoon, a aparência renovada e os recursos mais recentes da ferramenta. Além disso você aprenderá no final do livro os principais pontos de como atender os requisitos de manipulação de dados.

Linguagem: Inglês
Autores: Maria Carina Roldan
500 páginas - Dezembro 2017
Editora: Packt Publishing 

Pentaho Data Integration Quick Start Guide

O Pentaho Data Integration (PDI) é um ambiente intuitivo e gráfico, repleto de design de arrastar e soltar e poderosos recursos Extract-Transform-Load (ETL). Dado seu poder e flexibilidade, as tentativas iniciais de usar a ferramenta Pentaho Data Integration podem ser difíceis ou confusas. Este livro é a solução ideal.

Linguagem: Inglês
Autores: Maria Carina Roldan
178 páginas - Agosto 2018
Editora: Packt Publishing 

Pentaho Data Integration Beginner's Guide, Second Edition

O livro mostra todos os aspectos do Pentaho Data Integration, fornecendo instruções sistemáticas em um estilo amigável, permitindo que você aprenda brincando com a ferramenta. Ao longo do livro são fornecidas inúmeras dicas e sugestões úteis para desenvolvedores de software, administradores de banco de dados, estudantes de TI e todos os envolvidos ou interessados no desenvolvimento de soluções ETL e/ou manipulação de dados. 

Linguagem: Inglês
Autores: María Carina Roldán
502 páginas - Agosto 2013
Editora:  Packt Publishing 

Instant Pentaho Data Integration Kitchen

Um guia prático com dicas fáceis de seguir, ajudando os desenvolvedores a coletar dados de fontes diferentes, como bancos de dados, arquivos e aplicativos, transformar os dados em um formato unificado, acessível e relevante para os usuários finais. Você aprenderá como usar as ferramentas de linha de comando com eficiência ou para aprofundar alguns aspectos das ferramentas para ajudá-lo a trabalhar melhor.

Linguagem: Inglês
Autores: Sergio Ramazzina
59 páginas - Julho 2013
Editora: Packt Publishing 

 

Pentaho Report Designer

 

Pentaho 5.0 Reporting by Example: Beginners Guide

Um tutorial prático, incluindo vários exemplos de gerenciamento de aplicativos usando o Citrix XenApp 6.5. O Citrix XenApp Performance Essentials é destinado a arquitetos de TI e administradores de sistemas que trabalham com o Citrix XenApp, onde é necessário um guia prático e ágil para ajustar e otimizar o desempenho.

Linguagem: Inglês
Autores: Mariano Garcia Matti­o, Dario R. Bernabeu
212 páginas - Agosto 2013
Editora: Packt Publishing 

Pentaho Reporting 3.5 for Java Developers

Você que precisa instalar uma solução de relatório em seu ambiente e deseja aprender conceitos avançados no Pentaho Reporting, como sub-relatórios, guias cruzadas, configuração da fonte de dados e relatórios baseados em metadados, este é seu livro.
Tutorial muito prático, repleto de exercícios e exemplos, apresenta uma variedade de conceitos no Pentaho Reporting. Com capturas de tela que mostram como os relatórios são exibidos no tempo de design e como devem ser renderizados em PDF, Excel ou HTML.

Linguagem: Inglês
Autores: Will Gorman
260 páginas - Setembro 2009
Editora: Packt Publishing 

Pentaho 8 Reporting for Java Developers

Crie os melhores relatórios e resolva problemas comuns com o mínimo de esforço dominando os recursos básicos e avançados do Pentaho 8 Reporting.
Este tutorial prático, repleto de exercícios e exemplos, apresenta uma variedade de conceitos no Pentaho Reporting. Com capturas de tela que mostram como os relatórios são exibidos no tempo de design e como devem ser renderizados quando PDF, Excel, HTML, Texto, Arquivo Rich Text, XML e CSV.

Linguagem: Inglês
Autores: Francesco Corti
351 páginas - Setembro 2017
Editora: Packt Publishing

 

Pentaho Business Analytics

 

Pentaho Business Analytics Cookbook

Este guia prático contém uma ampla variedade de dicas, levando você a todos os tópicos necessários para se familiarizar rapidamente com o Pentaho e ampliar seu conjunto de habilidades Pentaho. Se você está envolvido em atividades diárias usando a plataforma Pentaho Business Analytics, este é o livro para você. É um bom companheiro para você se familiarizar rapidamente com tudo o que precisa para aumentar sua produtividade com a plataforma. Assumimos familiaridade básica com Pentaho, design de data warehouse e SQL, HTML e XML.

Linguagem: Inglês
Autores: Sergio Ramazzina
366 páginas - Junho 2014
Editora: Packt Publishing 

Pentaho Analytics for MongoDB

Este é um guia fácil de seguir sobre os principais pontos de integração entre o Pentaho e o MongoDB. Empregando uma abordagem prática projetada para que o Pentaho seja configurado para conversar com o MongoDB desde o início, para que você obtenha resultados rápidos.
Este livro é destinado a analistas de negócios, arquitetos de dados e desenvolvedores novos no Pentaho ou no MongoDB que desejam oferecer uma solução completa para armazenamento, processamento e visualização de dados.

Linguagem: Inglês
Autores: Bo Borland
99 páginas - Fevereiro 2014
Editora: Packt Publishing  

Pentaho Analytics for MongoDB Cookbook

Mais de 50 receitas para aprender a usar o Pentaho Analytics e o MongoDB para criar soluções poderosas de análise e relatório. Acelere o acesso a dados e maximize a produtividade com recursos exclusivos do Pentaho para MongoDB.
O livro ensinará como explorar e visualizar seus dados no Pentaho BI Server usando o Pentaho Analyzer, criar painéis avançados com seus dados além de guiar você pelo Pentaho Data Integration e saber como ele funciona com o MongoDB. 

Linguagem: Inglês
Autores: Joel Latino, Harris Ward
131 páginas - Setembro 2016
Editora: Packt Publishing 

Pentaho for Big Data Analytics

O livro é um guia prático, cheio de exemplos passo a passo fáceis de seguir e implementar. É destinado para desenvolvedores, administradores de sistema e profissionais de inteligência de negócios que desejam aprender como obter mais de seus dados através do Pentaho.

Linguagem: Inglês
Autores: Manoj R Patil, Feris Thia
70 páginas - Novembro 2013
Editora: Packt Publishing

 

Livros sobre Conceitos de Business Intelligence

 

Business Intelligence Guidebook from Data Integration to Analytics

Entre os conceitos de alto nível de inteligência de negócios e as instruções detalhadas para o uso das ferramentas dos fornecedores, encontra-se a camada essencial, ainda que pouco compreendida, da arquitetura, design e processo. Sem esse conhecimento, o Big Data é menosprezado - os projetos fracassam, estão atrasados ​​e ultrapassam o orçamento.
Com as diretrizes práticas para a criação de soluções bem-sucedidas de BI, DW e integração de dados, você poderá projetar a arquitetura geral para os sistemas de inteligência de negócios em funcionamento com os aplicativos de armazenamento de dados e integração de dados. 

Linguagem: Inglês
Autores: Rick Sherman
675 páginas - Novembro 2014
Editora: Elsevier Science

Successful Business Intelligence: Unlock the Value of BI & Big Data, Second Edition

Expandido para cobrir o que há de mais recente em inteligência de negócios - big data, nuvem, celular, descoberta de dados visuais e memória -, este best-seller totalmente atualizado pelo guru de BI Cindi Howson fornece as técnicas mais modernas para explorar o BI com o maior ROI.
O livro baseia-se em dados de pesquisas exclusivas e estudos de caso reais de histórias de sucesso de BI na Netflix, Medtronic, Macys.com, The Dow Chemical Company, Learning Circle e outras empresas para identificar as melhores práticas comprovadas de BI que podem ser usadas corretamente longe.
Este guia prático é a chave para reunir inovações tecnológicas com as pessoas, processos e cultura de qualquer organização, a fim de alcançar uma estratégia de BI competitiva e lucrativa.

Linguagem: Inglês
Autores: Cindi Howson
331 páginas - Outubro 2013
Editora: Mcgraw-hill 

Star Schema The Complete Reference

Aprenda as melhores práticas de design dimensional. Esquema em estrela (Star Schema): a referência completa oferece uma cobertura detalhada dos princípios de design e seus fundamentos subjacentes. Organizado em torno dos conceitos de design e ilustrado com exemplos detalhados, este é um guia passo a passo para iniciantes e um recurso abrangente para especialistas.
Este volume começa com os fundamentos dimensionais do projeto e mostra como eles se encaixam em diversas arquiteturas de data warehouse, incluindo as de W.H. Inmon e Ralph Kimball. Através de uma série de técnicas avançadas que ajudam a lidar com a complexidade do mundo real, maximizar o desempenho e se adaptar aos requisitos dos produtos de software de BI e ETL. 

Linguagem: Inglês
Autores: Christopher Adamson
653 páginas - Julho 2010
Editora: Mcgraw-hill 

BI Como Deve Ser: O Guia Definitivo

A obra BI Como deve ser uma novidade no ramo de Business Intelligence , pois toda a discussão é centrada na explicação direta e objetiva de como os profissionais de tecnologia ou os negócios podem iniciar o projeto de BI do zero.
Diferenciação e linguagem clara, o livro BI Como Deve ser a busca por informação, como também por profissionais da área de negócios.

Linguagem: Português
Autores: Diego Elias Oliveira e Grimaldo Lopes de Oliveira
Acesse: https://www.bicomodeveser.com.br

 

Data Warehouse - Modelo Dimensional 

 

The Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling

Modelagem dimensional tornou-se a abordagem mais amplamente aceite para os projetos de data warehouses. Uma biblioteca completa com técnicas de modelagem dimensional - a mais completa coleção já escrita. Expandida para cobrir as técnicas básicas e avançadas para otimizar os dados do projeto do data warehouse, guia clássico de Ralph Kimball.

Linguagem: Inglês
Autor: Ralph Kimball, Margy Ross
464 páginas - Abril 2002
Editora: Wiley

Dimensional Modeling: In a Business Intelligence Environment

Nesta publicação Redbooks IBM são demonstradas técnicas de modelagem de dados dimensional e tecnologia, voltados especificamente para business intelligence e data warehousing. Ajudar o leitor a compreender como projetar, manter e utilizar um modelo dimensional para armazenamento de dados que podem fornecer o acesso a dados e desempenho necessários para inteligência de negócios.

Linguagem: Inglês
Autores: Chuck Ballard, Daniel M. Farrell, Amit Gupta, Carlos Mazuela, Carlos Mazuela
664 páginas - Março 2006 ( Atualizado maio 2008 )
Editora: Redbooks

Onde realizar Download: http://www.redbooks.ibm.com/abstracts/sg247138.html?Open

 

MDX - MultiDimensional eXpressions

 

MDX Solutions: With Microsoft SQL Server Analysis Services

Um tutorial prático sobre a construção e utilização de armazéns de dados multidimensionais. A linguagem de consulta SQL é usado para acessar dados em bancos de dados. Mas, para armazéns multidimensional (OLAP), a Microsoft desenvolveu MDX. A linguagem de consulta MDX se tornou essencial know-how para os desenvolvedores e usuários, seja para armazéns de dados ou para elaboração de orçamentos e sistemas de planejamento.

Linguagem: Inglês
Autor: George Spofford
416 páginas - Julho 2001
Editora: Wiley

InfoSphere Warehouse: Cubing Services and Client Access Interfaces

Este livro tem um excelente capítulo sobre MDX, os demais são aplicados a tecnologias IBM. InfoSphere Warehouse ™ .
Panorama com objetivo principal de discutir e descrever as capacidades de um determinado componente do InfoSphere Warehouse: InfoSphere Warehouse Cubing.

Linguagem: Inglês
Autores: Chuck Ballard, Deepak Rangarao, Jimmy Tang, Philip Wittann, Zach Zakharian, Andy Perkins, Robert Frankus
446 páginas - Dezembro 2008
Editora: Redbooks 

Onde realizar Download: http://www.redbooks.ibm.com/abstracts/sg247582.html?Open 

{loadposition sobre-ambientelivre-bi}

Instalando e configurando o plugin Saiku Business Analytics no Pentaho CE

$
0
0

O Saiku Business Analytics é um cliente web OLAP disponível como  plugin para o Pentaho Business Intelligence Server. Ele usa o Pentaho Analisys (Mondrian) para proporcionar uma forma fácil e amigável de usar o recurso de cubos OLAP com uma experiência simples para usuário final.

O Saiku permite que os usuários de negócios explorem fontes de dados complexas, usando uma interface familiar de arrastar e soltar e terminologia de negócios fácil de entender, tudo dentro de um navegador. Selecione os dados que você está interessado, olhe para ele de perspectivas diferentes, faça um detalhamento. Depois de ter sua resposta, salve seus resultados, compartilhe-os, exporte-os para o Excel ou PDF, tudo diretamente do navegador.

Assim como o Pentaho Business Intelligence, o Saiku tem uma versão community (Saiku CE) e uma versão comercial(Saiku EE).

Este tutorial foi escrito baseado na versão 3.90 do Saiku Analitycs e instalação no Pentaho BI Server 8.0, 8.1,8.2 e 8.3 Community Edition para instalação via donwload do site oficial do projeto Saiku e também demonstraremos via marketplace, via MarketPlace já é disponível desde a versão Pentaho 4.8 CE, que tem um procedimento similar de forma automática.

Se quiser experimentar o mais recente (instável) , ou ter mais informações visite o site do produtor: http://meteorite.bi/saiku

Descrevemos duas formas de instalação:  Manual ou instalação via Marketplace, em ambas terá de realizar um cadastro no site para gerar um arquivo de licença (Sim apesar de ser open source e as regras da Apache Software Foundation permitem a geração de licenças, a mesma e gratuita e no máximo receberá um spam de propaganda que vale a pena pelo produto) 

Quer conhecer rápidamente o Saiku antes de instalar? veja o Vídeo!

 

Instalando o Saiku Business Analitycs - via marketplace (Pentaho 4.x,5.x,6.x,7.x,8.0 e 8.1)

  1. Acesse seu Pentaho Server com um usuário administrador (Exemplo: admin)




  2. No Pentaho Server acesse o menu Home -> Marketplace conforme imagem a seguir:







  3. Na opção Search informe o nome Saiku para filtrar os itens do marketplace conforme imagem a seguir:





  4. ATENÇÃO! Se clicar diretamente para instalar a opção que terá e a versão EE, que vem como default na ferramenta , então se quiser a versão community livre de custos, clique sobre qualquer local da linha do saiku (menos no install) e altere para a versão Community conforme imagem.







  5. Confirme a instalação do Saiku Community ( Version 3.90 Stable)






  6. Após realizar o download e instalar o plugin uma mensagem de confirmação será apresentada e deve reiniciar o Pentaho Server


  7. Acesse seu Pentaho Server e em File -> New -> Saiku Analytics inicie o mesmo, será aberta uma tela de propaganda e terá mais um ícone no mesmo para o Saiku Analitycs conforme imagem abaixo, clique em create new query:





  8. Pronto pode utilizar o Saiku Analitycs.

 

Instalando Saiku Analitycs - manualmente(Pentaho 8.2, 8.3 ou qualquer outra versão)

 

  1. Pare a execução do servidor Pentaho Server.

  2. Acesse o Marketplace da Pentaho em https://marketplace.hitachivantara.com/pentaho/

  3. Filtre pela versão Pentaho 8.1 ( Pois os desenvolvedores do Saiku não validaram oficialmente para 8.2 ainda para CE somente EE) e filtre por Saiku no campo search conforme imagem.





  4. Clique sobre o Saiku Analytics e depois em download plugin (No momento que escrevemos este artigo o arquivo era saiku-plugin-p7.1-3.90.zip e a versão 3.90)


  5. Extraia o conteúdo do zip e teremos um diretório chamado saiku , copie o diretório saiku para <seupathdeinstalacaopentaho>/pentaho-server/pentaho-solutions/system



  6. O Saiku tem licença apache mas cada usuário deve ter uma licença individual e podem ser geradas em https://licensing.meteorite.bi/ , acesse o site registre-se e será gerado um arquivo chamado licenses.lic



  7. Copie este arquivo para a pasta <seupathdeinstalacaopentaho>/pentaho-server/pentaho-solutions/system/saiku


  8. Inicie o Pentaho-Server.


  9. Acesse seu Pentaho Server e em File -> New -> Saiku Analytics inicie o mesmo, será aberta uma tela de propaganda e terá mais um ícone no mesmo para o Saiku Analitycs conforme imagem abaixo, clique em create new query:





  10. Pronto pode utilizar o Saiku Analitycs!

 

Removendo propagandas do Saiku -  Splash

 Sempre quando aberto no Pentahu User Console o Saiku vem com propagandas que num ambiente de produção não são adequados e interessantes , como o código de tudo é aberto podemos retirar esta tela de propaganda chamada Splash.

 

  1. Após Instalar o Saiku acesse em seu Pentaho Server o arquivo JS ../pentaho-server/pentaho-solutions/system/saiku/ui/saiku.min.js
  2. Procure no mesmo esta linha ( são diversos lugares com a mesma linha , na versão que estamos existiam em 4 locais ):

    !Settings.INITIAL_QUERY&&d.splash?Saiku.tabs.add(new SplashScreen)

  3. Substitua o que esta em negrito da linha acima pelo que esta em negrito da linha abaixo:

    !Settings.INITIAL_QUERY&&d.splash?Saiku.tabs.add(new Workspace)

  4. Limpe seu cache do navegador e abra o Saiku novamente , verá que agora não teremos mais as propagandas.

  5. Para limpar todos caches do Tomcat reinicie o Server.

 

Bugs que podem ser encontrados e Corrigidos ( algumas versões)

Exportação

Algumas Bibliotecas do Apacje Poy

 

 Erros Comuns

 

  • Falta de Licença.

    "There has been an error creating a session: No license found, please fetch a free license from http://licensing.meteorite.bi and move it to: pentaho-solutions/system/saiku/license.lic"

    Como o próprio erro alerta ou você não adicionou o arquivo de licença ou esta no diretório incorreto , o arquivo pode ser adicionado a pasta sem necessidade de reiniciar o Pentaho Server.


  • Problemas de Proxy(bloqueio ) ou falha para baixar arquivo do repositório/marketplace

"Error occurred when installing plugin Saiku Analytics.[Failed to execute install, see log for details.]"

E comum também receber um erro quando tentamos baixar pelo repositório ( veja imagem ) , caso tenha este problema faça a instalação do modo manual.

 

 

Fonte e mais informações no site Oficial do Projeto Saiku :  https://community.meteorite.bi/


Sobre a Ambiente Livre

A Ambiente Livre Business Intelligence é especialista em utilização do Pentaho BI para geração de negócios com soluções open source. fornecemos implantação de Pentaho, integração, consultoria em business intelligence , consultoria em Pentaho Business Intelligence, treinamento em Pentaho BI , Saiku Server Report e Analytics.

 

Conectando o Pentaho ao Banco de Dados Oracle

$
0
0

Com o Pentaho podemos utilizar qualquer SGBD para armazenamento do nosso Data Warehouse ou para extração de dados e apresentação de relatórios. Dois itens são importantes para conectar o Pentaho ao SGBD da Oracle, primeiramente o Driver deve estar nos seus devidos locais de bibliotecas externas e a string de conexão estar configurada corretamente.

Driver

O Driver da Oracle não pode ser distribuído juntamente com aplicações sem um contrato de OEM, porém o mesmo pode ser baixado gratuitamente do site do fabricante : https://www.oracle.com/database/technologies/appdev/jdbc-downloads.html

Faça o download de acordo com sua versão, quando publicamos este artigo o mais atual era o ojdbc10.jar, que poderia ser usado para Oracle 9,10 e 10g, etc até a versão 19c.

Para o Ambiente Server do Pentaho devemos adicionar o driver em duas localidades (diretórios):

PUC - Pentaho User Console

../pentaho-server/tomcat/lib

Este é o diretório padrão do Tomcat para bibliotecas externas.

String de Conexão


Cada SGBD tem a string de conexão com características diferentes , quando queremos usar uma conexão JNDI ou JDBC.

A String de Conexão JDBC e JNDI do Oracle e composta por alguns parâmetros , seguem quais são e uma breve descrição sobre cada um deles:

  • Driver Class:  Classe Java responsável pela conexão -> Exemplo:  oracle.jdbc.driver.OracleDriver
  • Tipo da Conexão: JDBC
  • Nome do Banco de Dados: Nesta caso oracle:thin que é o Padrão para o Oracle DB.
  • Nome ou IP do Servidor: IP ou DNS onde se encontra o servidor do Banco de Dados Oracle, caso seu Pentaho e Oracle estejam na mesma máquina informar localhost.
  • Porta: Porta de conexão com o banco de Dados , A Porta padrão do Oracle é a 1531 , caso seu banco tenha outro padrão de portal altere conforme sua necessidade.
  • SID: Nome do SID ou Oracle System ID , especificado no arquivo tnsnames.ora, geralmente conforme abaixo porem dependendo da versão ou da customização de instalação pode ter outras referencias como XE etc.

Exemplo de um tnsnames.ora com o SID chamado ORCL

ORCL =
 (DESCRIPTION =
   (ADDRESS = (PROTOCOL = TCP)(HOST = myhost)(PORT = 1521))
   (CONNECT_DATA =
     (SID = ORCL)
   )
 )


Após saber a funcionalidade de cada um dos parâmetros podemos criar a nossa string de conexão com o Oracle no Pentaho Server usando a seguinte linha de referência  e alterando seus valores:

jdbc:oracle:thin:@:porta:SID


Para um banco de Dados Oracle  no servidor oracle.ambientelivre.com.br na porta 1521 e no SID XE teríamos :

jdbc:oracle:thin:@oracle.ambientelivre.com.br:1521:XE


Esta string é solicitada no Pentaho User Console quando for criar novas conexões do Pentaho para o Oracle.

Conexão com Oracle nas CTools - CDE


O data source do grupo sqlover sqlJdbc do módulo CDE, pode ser configurado conforme parâmetros  do exemplo a seguir:

  • Name: Nome da query
  • Name: oracle.jdbc.driver.OracleDriver
  • URL: jdbc:oracle:thin:@host:porta:SID
  • user: utilizador
  • password: teste
  • Query: select sysdate from dual

{loadposition sobre-ambientelivre-bi}

 


Instalando o Pentaho Data Integration - PDI - (Kettle) no Linux

$
0
0

 

 

Pentaho Data Integration ou também chamado por seu codinome de projeto como Kettle e uma ferramenta de ETL (Extração, Transformação e Carga do inglês Extract, Transform and Load) que faz parte da plataforma Pentaho Business Intelligence e Analitycs. O mesmo pode ser instalado separadamente sem a necessidade de mais nenhum dos softwares adicional da plataforma de BI do Pentaho e usado exclusivamente para ETL.

Pré-Requisitos.

O único pré-requisito e ter um runtime Java (máquina virtual java ) instalada ou uma JDK (Kit de Desenvolvimento Java) , que pode ser de implementação aberta ( OpenJDK) ou fechada ( como a da Oracle) e pode ser realizado o download em https://www.oracle.com/technetwork/pt/java/javase/downloads/index.html. Cada versão do Pentaho Data Integration teremos uma versão do Java, no momento que escrevemos neste artigo usamos a versão 8.3 do Pentaho Data Integration que exige a versão 1.8 do Java ou superior.

 

Curiosidade: Um apelido do Pentaho Data Integration usado pela maioria dos desenvolvedores e usuário do Pentaho Data Integration é a sigla PDI. 

Download.

Primeiramente acesse o repositório oficial do Pentaho no SourgeForge.net em http://sourceforge.net/projects/pentaho/files/ depois selecione a versão mais recente (ex. Pentaho 8.3) e depois acessar a divisão client-tools (onde estão as ferramentas clients), quando descrevemos este artigo a ultima versão era a 8.3, e o arquivo para realizar o download neste caso era o pdi-ce-8.3.0.0-371.zip (tanto para GNU/Linux como Windows o pacote de instalação e o mesmo o .zip)

Instalando o Pentaho Data Integration.

  • Para instalar o Pentaho Data Integration no Linux crie o diretório em /opt/pentaho/client-tools  como o comando mkdir -p /opt/pentaho/client-tools (Está é uma recomendação e não obrigatoriedade, funciona em qualquer diretório).
  • Descompacte o pacote pdi-ce-x.xx.zip ( onde xx é sua versão ) no diretorio /opt/pentaho/client-tools será criado o diretório data-integration.
  • Pelo prompt shell acesse o diretório data-integration e de permissão a todos os arquivos com extensão .sh como o comando a seguir:

chmod 755 *.sh

  • Pentaho Data Integration tem 4 componentes de software (spoon, carte, kitchen e pan) o responsável pela criação dos ETLs (Transformações e Jobs) de forma visual é o Spoon e para iniciar o Spoon do Pentaho Data Integration execute o comando:

./spoon.sh

  • Será aberto a PDI com a tela de inicialização abaixo e em seguida o ambiente de trabalho de Transformações e Jobs.

 

 

Observações específicas de alguns sistemas operacionais.

Pentaho Data Integration no Ubuntu 11.04.

Quem estiver utilizando o Pentaho Data Integration com o Ubuntu 11.04 poder estar tendo o seguinte problema, ao tentar arrastar os steps para um transformação os mesmos não ficam na área de transformação. constatamos isso numa versão especifica do ubuntu ainda no PDI 5, conforme a imagem a seguir.

 

Para corrigir esse problema siga os seguintes passos:

  • Remova as bibliotecas lib:
    overlay-scrollbar
    liboverlay-scrollbar-0.1-0
  • Para remover utilize o seguinte comando:

    sudo apt-get remove overlay-scrollbar liboverlay-scrollbar-0.1-0
  • Reinicie o Pentaho Data Integration


Quer virar um especialista em Pentaho Data Integration? participe de nossas formações especificas do Pentaho Data Integration ou uma formação completa do Pentaho Business Intelligence e Analitycs.

 {loadposition sobre-ambientelivre-bi}

Kimball University: As 10 Regras Essenciais para a Modelagem de Dados Dimensional

$
0
0

 

Margy Ross – Presidente Kimball Group
Maio de 2009, Intelligent Enterprise.com


Tradução livre para a língua portuguesa por BI Experts ( Parceira em capacitação de Business Intelligence da Ambiente Livre) e revisado por Ambiente Livre.

Um estudante participando de uma aula recente de modelagem dimensional do Kimball Group perguntou-me se existia uma lista de “recomendações Kimball” para a modelagem dimensional.

Abstendo-se de utilizar uma terminologia religiosa, podemos dizer que as regras a seguir não devem ser quebradas e também existem algumas regras de ouro não tão severas a serem seguidas.


Regra #1: Carregue dados detalhados para as estruturas dimensionais.

Modelos dimensionais devem ser populados com um alicerce de dados detalhados para suportar os requisitos imprevisíveis de filtragem e agrupamento necessárias para atender as consultas dos usuários de negócios. Usuários normalmente não precisam visualizar um registro por vez, mas é impossível prever em quais diferentes maneiras eles pretendem ver os dados e acessar os detalhes. Se apenas dados agregados estiverem disponíveis, então você já deve ter se deparado com padrões de utilização dos dados que levaram os usuários a chegar a uma barreira intransponível quando eles querem acessar os detalhes. É claro, dados detalhados podem ser complementados por modelos dimensionais agregados que trazem vantagens de desempenho para consultas frequentes de dados sumarizados, mas os usuários de negócios não conseguem viver apenas dos dados agregados; eles precisam dos detalhes sangrentos para responder seus diferentes questionamentos.

Regra #2: Estruture os modelos dimensionais em torno dos processos de negócios.

Os processos de negócios são as atividades desenvolvidas por sua empresa; elas representam eventos mensuráveis, como registrar um pedido ou emitir uma fatura para um consumidor. Processos de negócios normalmente capturam ou geram métricas únicas de desempenho associadas a cada evento. Estas métricas traduzidas em fatos, com cada processo de negócios representado por uma única tabela fato.
Além destas tabelas fato para cada processo, tabelas fato consolidadas às vezes são criadas para combinar métricas de vários processos em uma tabela fato com um nível padronizado de detalhe. Novamente, tabelas fato agregadas são um complemento para as tabelas fato detalhadas relacionadas aos processos de negócio, e não um substituto para elas.

Regra #3: Tenha certeza de que cada tabela fato tenha uma dimensão de data associada.

Os eventos mensuráveis descritos na Regra #2 sempre tem uma data de algum tipo associada a eles, sejam eles um balancete mensal ou uma transferência de dinheiro registrada em seu centésimo de segundo. Cada tabela fato deve ter ao menos uma chave estrangeira associada a uma tabela de dimensão data, cuja granularidade é cada único dia, com os atributos de calendário e suas características não padronizadas relacionadas a data do evento, como o período fiscal ou um indicador corporativo de feriado. Às vezes multiplas chaves estrangeiras de data estão ligadas em uma única tabela fato.

Regra #4: Certifique-se que todos os fatos em uma única tabela fato estão na mesma granularidade ou nível de detalhe.

Existem três granularidades fundamentais para classificar todas as tabelas fato:  transacional, snapshot periódico, ou snapshot acumulado. Independente de sua granularidade, cada métrica em uma tabela fato deve estar exatamente no mesmo nível de detalhe. Quando você mistura fatos representando muitos níveis de granularidade em uma mesma tabela fato, você estará criando confusão para os usuários de negócios e tornando as aplicações de BI vulneráveis a erros de valores ou outros resultados incorretos.

Regra #5: Resolva relacionamentos muitos-para-muitos em tabelas fato.

Como uma tabela fato guarda os resultados de um evento de um processo de negócios, existem inerentemente relacionamentos muitos-para-muitos (M:M) entre suas chaves estrangeiras, como diferentes produtos vendidos em diferentes lojas em diferentes dias. Estes campos de chaves estrangeiras nunca devem conter valores nulos. Às vezes dimensões podem ter valores diferentes para uma único métrica,
como diferentes diagnósticos associados com uma consulta médica ou diferentes clientes de uma conta bancária. Nestes cados, seria irracional resolver as dimensões multi-valoradas diretamente na tabela fato, pois isto poderia violar a granularidade natural da métrica. Neste caso, podemos usar um relacionamento muitos-para-muitos, com uma tabela de relacionamento em conjunto com a tabela fato.

Regra #6: Resolva os relacionamentos muitos-para-um nas tabelas de dimensões.

Hierarquicamente, relacionamentos muitos-para-um (M:1) entre atributos são normalmente desnormalizados ou concentrados em uma única tabela dimensão. Caso você não queira passar a maior parte de sua carreira desenhando modelos entidade-relacionamento para sistemas transacionais, você precisa resistir a sua instintiva tendência a normalizar ou criar um snowflake com subdimensões menores para cada relacionamento M:1; desnormalização de dimensões é a regra do jogo na modelagem dimensional.
É bastante comum ter muitos relacionamentos M:1 em uma única tabela dimensão.
Relacionamentos um-para-um, como uma única descrição de produto associada a um código de produto, também são encontradas em uma tabela dimensão.
Ocasionalmente relacionamentos muitos-para-um são resolvidos na tabela fato, como no caso de uma tabela de dimensão detalhada com milhões de linhas e com atributos frequentemente atualizados. Entretanto, usar a tabela fato para resolver relacionamentos M:1 deve ser feito de forma moderada.

Regra #7: Gravar nomes de relatórios e valores de domínios de filtros em tabelas dimensão.

Os códigos e, mais importante ainda, as decodificações e descrições associadas a eles usadas como nomes de colunas em relatórios e como filtros em consultas devem ser gravadas em tabelas dimensionais. Evite gravar campos com códigos criptográficos ou volumosos campos descritivos na própria tabela fato; da mesma forma, não grave apenas o código na tabela de dimensão e assuma que os usuários não precisam das decodificações descritivas ou que elas pódem ser resolvidas na aplicação de BI. Se a informação for um nome de linha/coluna ou um filtro de menu, então ela deve ser tratada como um atributo de dimensão.
Embora tenhamos dito na Regra #5 que as chaves estrangeiras de tabelas fato nunca devem ser nulas, também é aconselhável evitar nulos em campos de atributos de tabelas dimensão trocando o valor nulo por um valor como "NA" (não se aplica) ou algum outro valor padrão, determinado pela administração de dados, para reduzir a confusão entre os usuários se possível.

Regra #8: Tenha certeza de que as tabelas dimensão usam uma chave artificial.

Chaves artificiais, sem significado e sequenciais (exceto para a dimensão data, onde chaves cronologicamente definidas e mais inteligíveis são aceitáveis) provém um grande número de benefícios operacionais; chaves menores significam menores tabelas fato, menores índices, e desempenho melhorado. Chaves artificiais são absolutamente necessárias no caso de você estar registrando as alterações dos atributos da dimensão com uma nova linha para cada mudança. Mesmo que seus usuários de negócios inicialmente não visualizem o valor de registrar as alterações nos atributos, usar chaves artificiais tornará uma futura alteração de política menos onerosa. As chaves artificiais também permitem mapear múltiplas chaves
transacionais para um único perfil, adicionalmente protegendo contra atividades operacionais inesperadas, como a reutilização de um código de produto obsoleto ou a aquisição de uma outra empresa com suas próprias regras de codificação.

Regra #9: Crie dimensões padronizadas para integrar os dados na empresa.

Dimensões padronizadas (também conhecidas por dimensões comuns, principais, ou de referência) são essenciais para o data warehousing empresarial. Gerenciadas no sistema de ETL e então reutilizadas associadas a diversas tabelas fato; dimensões padronizadas trazem atributos descritivos consistentes para os modelos dimensionais e permitem a habilidade de navegar através dos dados integrados de diferentes
processos de negócios. A matriz de negócios da empresa é o diagrama de arquitetura chave para representar os processos de negócios principais da organização e suas dimensões associadas. A reutilização das dimensões padronizadas finalmente diminui o tempo de desenvolvimento eliminando o desenho redundante e o esforço de desenvolvimento; entretanto, dimensões padronizadas requerem um compromisso e investimento em administração de dados e governância, desta forma você não precisa que cada pessoa concorde com cada uma das dimensões para atingir a conformidade.

Regra #10: Avalie requisitos e realidade continuamente para desenvolver uma solução de DW/BI que seja aceita pelos usuários de negócios e suporte seu processo de tomada de decisões.

Os responsáveis pela modelagem dimensional devem constantemente balancear os requisitos do usuários de negócios com as realidades inerentes aos dados de origem associados para desenvolver um modelo que possa ser implantado, e que, mais importante ainda; tenha uma boa chance de ser útil aos negócios. A avaliação dos requisitos-verus-realidades é parte da tarefa dos desenvolvedors de DW/BI, apesar de você estar focado na modelagem dimensional, estratégia do projeto, arquiteturas técnica/ETL/BI ou implantação/planejamento de manutenção.
Se você tem lido nossos artigos na Intelligent Enterprise, os livros Toolkit ou as dicas de Arquitetura mensais, estas regras não devem ser novas para você, mas aqui você as tem consolidadas em um único local que póde ser utilizado como referência para quando você estiver envolvido no desenho ou revisão de seus modelos.

{loadposition sobre-ambientelivre-bi}

Manipulando o Auto-Submit no Pentaho Report Designer

$
0
0

O PRD (Pentaho Report Designer) tem por padrão um campo de Auto-Submit habilitado. Este campo habilita uma função que a cada alteração em um parâmetro de um relatório (também chamados de filtros) o mesmo envia a execução de consulta a fonte de dados, ficando muito ruim seu uso quando a consulta tem uma certa demora a ser executada ou ainda quando temos muitos campos para serem selecionados antes de querermos visualizar o resultado. Para resolver esta situação podemos mudar seu comportamento padrão desabilitando esta função, sendo que o usuário vai informar primeiramente os campos de filtros (parâmetros) e depois clicar em View Report para execução do relatório.

  1. No Pentaho Report Designer abra seu arquivo de relatório (arquivo .prpt) e acesse a ABA Structure e depois clique em Master Page, conforme figura a seguir:

  2. Com a Master Page selecionada clique em Attributes e na separação chamada parameter teremos dois atributos que mudam o comportamento do auto-submit, o auto-submit e auto-submit-default conforme a seguir.

  3. O atributo Auto-submit-default tem 3 opções, pode estar sem definição, True ou False, sendo que se você alterá-lo para False e publique seu relatório, o mesmo ficará desmarcado por padrão quando publicado no Pentaho Server exibindo o checkbox porém sem estar assinalado conforme a seguir.

  4. O atributo Auto-submit tem 3 opções, pode estar sem definição, True ou False, caso esteja como False, após publicar o relatório você desabilitará a exibição do checkbox auto-submit da tela do Pentaho Server no momento de impressão do relatório. Não deixando opcional está função ao seu usuário.

  5. Com estas duas propriedades podemos alterar o comportamento do Auto-Submit para nossos usuários, adaptando conforme a necessidade de cada ambiente.

 

{loadposition sobre-ambientelivre-bi}

 

Pentaho Server CE: Usuários, grupos, senhas, funções, URLs e portas padrões.

$
0
0

O Pentaho Server possui uma configuração no formato de sistema para demonstração com diversas configurações padrões, onde é pré definido com usuários e privilégios (administrador e\ou usuário).
Essa configuração possui por padrão 04 usuários habilitados, no qual cada um possui um perfil (roles) conforme necessidade do seu ambiente Pentaho.
Portanto para acessar a Administração do Pentaho Server vamos seguir os seguintes passos:

1º Abra um Terminal na pasta "pentaho-server" aonde foi instalado seu ambiente.


Devemos fazer um start no servidor, para isso digite: ./start-pentaho.sh


Obs: No ambiente Windows é necessário somente executar o arquivo start-pentaho.bat

2º Para acessar o PUC (Pentaho User Console) é necessário abrir o navegador de Internet e digitar o endereço: http://localhost:8080
Com essa interface podemos visualizar os exemplos do Pentaho, todos os cubos, relatórios e dashboards.

3º Faça o login da seguinte forma:
Username: admin
Password: password

4º No canto superior esquerdo clique em Home e navegue até a opção Administration

5º Usuários e Funções (Users & Roles):
Aqui podemos visualizar os 04 usuários pré configurados pelo Pentaho. São eles:

 

Admin – Administrator: Usuário com privilégio em todas as funcionalidades e acessos no PUC Pentaho.
Password: password

 

 

Pat – Business Analyst:  Este usuário possui um perfil de desenvolvedor do Pentaho.
Password: password 

 

Suzy – Power User: Este usuário foi criado para um diretor de tecnologia.
Password: password

 

Tiffany – (Report Author) - Este usuário por padrão é vinculado para um perfil de gerente de desenvolvimento no Pentaho.
Password: password

 

O artigo foi executado e validado através do Pentaho Server versão 8.3

{loadposition sobre-ambientelivre-bi}

Configurando uma versão personalizada do Java no Pentaho (multi versões)

$
0
0

Quando utilizamos mais de uma versão do Pentaho ou múltiplos software dependentes de versões especificas do Java, muitas vezes configurar as variáreis globais (JAVA_HOME e PATH) do sistema, pode não ajudar muito no dia a dia e trabalho.  Aqui na Ambiente Livre por exemplo nos realizamos suporte em Pentahoconsultoria em Pentaho para cliente que tem múltiplas versões do Pentaho Business Intelligence, e acabamos precisando executar versões do Pentaho em nossa máquina deste o Pentaho 3.0 (sistema legados) até a versão atual Pentaho 9.0 e cada uma delas necessita de uma versão especifica do Java.

Neste artigo vamos mostrar como pode configurar o Java nos scripts de inicialização das ferramenta da suíte Pentaho.

Primeiramente verifique em seu equipamento o diretório onde esta instalado o Java , neste tutorial nos baseamos que o Java esta instalado  nos seguintes diretórios, no seu caso adapte a sua realidade:

Linux:  /opt/java/jdk1.8.0_221
Windows: C:/Programs Files/Java/jdk1.8.0_221

 

 

Pentaho Data Integration

Pentaho Server

  • Após instalar o Pentaho Server acesse a pasta bi-server (nas versões mais antigas) ou a pasta pentaho-server (nas versões mais recentes) e nela você vai encontrar o arquivo script chamado start-pentaho.sh e stop-pentaho.sh no Linux e start-petaho.bat e stop-pentaho.bat no Windows. Configure no inicio do arquivo as variáveis de ambiente Java de acordo com seu sistema Operacional:



    Linux (start-pentaho.sh e stop-pentaho.sh)
    JAVA_HOME=/opt/java/jdk1.8.0_221
    PATH=$JAVA_HOME/bin



    Windows (
    start-pentaho.bat e stop-pentaho.bat)
    JAVA_HOME=C:/Programs Files/Java/jdk1.8.0_221
    PATH=%JAVA_HOME%/bin


Estas mesmas configurações podem ser aplicadas em todos scripts de inicialização das demais ferramentas da suíte Pentaho seguindo o mesmo principio. As mesmas mudam em tempo de execução as variáveis necessárias para executar o Pentaho.

{loadposition sobre-ambientelivre-bi}

Glossário Pentaho Business Intelligence

$
0
0

Glossário com termos técnicos e abreviações utilizadas para assuntos relacionados a Pentaho Business Intelligence Open Source. 

CE - Community Edition - Do inglês Community Edition, traduzido como Edição da Comunidade, referência usada para a versão desenvolvida em parceria com a comunidade open source. Sigla muito usada nas extensões dos arquivos de instalação ( ex.: pentaho-server-ce-8.3.0.0-371.zip);

BI - Business Intelligence - Do termo inglês BI (Business Intelligence), pode ser traduzido como Inteligência de negócios, refere-se ao processo de coleta, organização, análise, compartilhamento e monitoramento de informações que oferecem suporte a gestão de negócios;

PDI - Pentaho Data Integration - Ferramenta contida na plataforma Pentaho, originalmente chamada de Kettle, responsável por integração de diversas fontes de dados, utilizado no Pentaho para construção do Data warehouse de uma aplicação de Business Intelligence. o seu principal executável é o software spoon;

PRD - Pentaho Report Designer - Ferramenta que permite profissionais de BI criarem relatórios detalhados e de qualidade, além de ser altamente flexível com a manipulação de dados para a apresentação nos relatórios;

PME - Pentaho Metadata Editor - A ferramenta simplifica a criação de relatórios de metadados, que são dados sobre dados. o PME mapeia a estrutura de dados físicos para um modelo de negócios mais lógicos;

PSW - Pentaho Schema Workbench - Ferramenta que permite editar e criar modelos multidimensionais (Mondrian). Os profissionais de BI poderão criar modelos Mondrian graficamente ou defini-los codificando manualmente arquivos XML;

PUC - Pentaho User Console - Interface do servidor Pentaho destinado a uso pelos usuários do sistema, com disponibilização de relatórios, dashboards e cubos divididos por soluções;

Kettle - Ferramenta para integração de dados, faz parte da solução Pentaho, onde é responsável pelo processo de Extração, Transformação e Carga (ETL), renomeado pela Pentaho para Pentaho Data Integration ou simplesmente PDI;

ETL - Do inglês Extract Transform Load (Extração Transformação Carga), são ferramentas de software cuja função é a extração de dados de diversos sistemas, transformação desses dados conforme regras de negócios e por fim a carga dos dados em um Data Mart ou um Data Warehouse. É considerada uma das fases mais críticas do Data Warehouse e/ou Data Mart;

PAT - Pentaho Analysis Tool - Um visualizador de cubos OLAP, seu nome foi renomeado para Saiku;

Saiku - É um sistema modular de código aberto, oferecendo suíte de análise OLAP leve que permanece facilmente incorporável, extensível e configurável. O Saiku foi disponibilizado também como um plugin Pentaho para visualização de cubos Mondrian, anteriormente o Saiku se chamava PAT (Pentaho Analysis Tool);

JPivot - JPivot é uma biblioteca de tags JSP personalizadas que apresenta uma tabela OLAP e permitir que os usuários executem navegações OLAP típicas como slice and dice, drill-down e roll-up. Ele usa Mondrian como servidor OLAP. JPivot também suporta XMLA datasource acesso. Porém a mesma não esta sofrendo mais atualizações então recomenda-se migrar para Pivot4J ou Saiku.

Pivot4J - Pivot4J é uma biblioteca de tags JSP personalizadas que apresenta uma tabela OLAP, fork do jPivot, e permitir que os usuários executem navegações OLAP típicas como slice and dice, drill-down e roll-up. Ele usa Mondrian como servidor OLAP. Pivot4J também suporta XMLA datasource acesso.

Spoon - Ferramenta gráfica que se desenha e valida todo processo do Pentaho Data Integration (transformações e jobs);

PAN - É a ferramenta de linha de comando Pentaho Data Integration para executar transformações a partir de um repositório Pentaho Data Integration (banco de dados ou empresa) ou de um arquivo local;

Kitchen - É a ferramenta que executa jobs à partir de um repositório Pentaho Data Integration (banco de dados ou empresa) ou de um arquivo local;

CTools - É um conjunto de ferramentas para construção de dashboards para a Suite Pentaho BI Open Source, utilizando tecnologias da web como JavaScript, CSS e HTML;

CDF - Community Dashboard Framekork - Principal componente das CTools.

Step  - Representa os passos dentro de uma transformação, onde podem ser agrupadas por Inputs, outputs e etc;

Hop - Define o fluxo de dados entre dois passos chamados de steps (conexão).

Data Lake - Termo criado pelo CTO (Chief Technical Officer) do Pentaho, James Dixon, para descrever um componente importante no universo da análise de dados. O data lake é um repositório que centraliza e armazena todos os tipos de dados gerados pela e para a empresa. Os dados são depositados ainda em estado bruto, sem o processamento, análise e até mesmo uma governança adequada.

Este Glossário esta em constante atualização, o mesmo é utilizado nos materiais técnicos desenvolvidos pela Ambiente Livre em seus treinamento de Pentaho BI.

{loadposition sobre-ambientelivre-bi}

 

Conhecendo o Pentaho BI Server - Arquitetura e infraestrutura

$
0
0

O Pentaho BI Server é responsável por toda a camada servidora da plataforma do Pentaho, fornece a arquitetura e infraestrutura necessária para a construção de soluções para business intelligence (BI).

Serviços essenciais do Pentaho BI Server:

  1. Autenticação;
  2. Logs;
  3. Auditoria;
  4. Serviços web;
  5. Motores de regras de negócio;
  6. Mecanismo para integração com relatórios;
  7. Mecanismo para integração de análises;
  8. Mecanismo para integração com dashboards;
  9. Mecanismo para integração com mineração de dados.

Sua arquitetura é baseada em plug-in permitindo que a totalidade ou parte da plataforma seja incorporada a aplicações de terceiros.
O Pentaho BI Server é composto por diversos outros aplicativos Open Source, entre eles:

Apache Tomcat

 Servidor Web Java,  especialista em aplicações J2EE, que é a tecnologia ao qual o Pentaho Bi Server foi desenvolvido,  mais especificamente o tomcat é um contêiner de servlets. O Tomcat possui algumas características próprias de um servidor de aplicação, porém não pode ser considerado um servidor de aplicação por não preencher todos os requisitos necessários.
http://tomcat.apache.org

Apache Jackrabbit

 O repositório de conteúdo Apache Jackrabbit ™ é uma implementação totalmente em conformidade do API de Repositório de Conteúdo para Java Technology (JCR, especificado em JSR 170 e JSR 283). Um repositório de conteúdo é um armazenamento hierárquico com suporte para conteúdo estruturado e não estruturado, pesquisa de texto completo, versão, transações, observação e muito mais.
https://jackrabbit.apache.org

 Spring Security

 Spring Security é uma aplicação para controle de autenticação forte e altamente personalizável, possui quadro de controle nos acessos.  É o padrão de fato para proteger aplicativos baseados em Spring. O mesmo se integra ao Tomcat e ao Pentaho BI Server para administração da segurança do servidor de aplicação.
https://spring.io 

Hibernate

 O Hibernate é um framework para o mapeamento objeto relacional escrito na linguagem Java, mas também é disponível em .Net como o nome NHibernate. No pentaho ele e responsável pelo mapeamento das bases de dados para o data warehouse.
https://hibernate.org 

Quartz

 O Quartz é um agendador (scheduler) open source, serviço de agendamento de tarefas que podem ser integrados ou utilizados ao longo de praticamente qualquer Java EE ou aplicativo Java SE.
http://www.quartz-scheduler.org

Hyper SQL (HSQLDB)

 O HSQLDB (do inglês Hyperthreaded Structured Query Language Database) é um servidor de banco de dados (SGBD), de código aberto, escrito totalmente na linguagem Java. Não é possível compará-lo, em termos de robustez e segurança com outros servidores SGBD, como Oracle ou Microsoft SQL Server, entretanto o HSQLDB é uma solução simples, que utiliza poucos recursos e que possui bom desempenho. Devido a essas características, ele é bastante utilizado em aplicações que são executadas em desktops e que necessitam interagir com uma camada de persistência através da linguagem SQL. A suíte office OpenOffice/ BrOffice, na sua versão 2.0, inclui o HSQLDB como engine de armazenamento de dados.
http://hsqldb.org 

{loadposition sobre-ambientelivre-bi}

 

 

 

 

 

 

 

 


Livros e e-books sobre Pentaho e conceitual de business intelligence

$
0
0

Nesta página selecionamos os principais livros que descrevem especificamente sobre a plataforma de BI Open Source: Pentaho Business Intelligence. Também listamos livros que auxiliam no processo de conhecimento sobre conceitos relacionados a Business Intelligence independente da ferramenta.

Algumas Suites de BI proprietárias e livros genéricos possuem opções gratuitas para downloads, no qual podem ajudar no processo de aprendizado. Grande parte dessas informações foram utilizadas como base no desenvolvimento de nossos materiais didáticos nos Treinamentos em Pentaho Business Intelligence que oferecemos.
Para os iniciantes recomendamos nesse primeiro momento a leitura de livros conceituais, pois ainda não sabem exatamente os propósitos de uma solução de Business Intelligence. Após adquirir  o conceito do BI sugerimos se aprofundar no aprendizado da Suite Pentaho.

O assunto dos livros foram organizados em níveis e sub níveis de categoria, sejam conceituais ou de softwares. A lista é constantemente atualizada pela equipe da Ambiente Livre, fazendo com que os consultores sempre utilizem as melhores praticas em seus projetos.

Livros Específicos Pentaho Business Intelligence

 

Plataforma Pentaho

 

Pentaho Solutions - Business Intelligence and Data Warehousing with Pentaho and MySQL

Este guia prático escrito por dois grandes participantes da comunidade Pentaho. O livro cobre todos os componentes do Pentaho BI Suite. Você aprenderá a instalar, usar e manter o Pentaho - e encontrará muitas discussões de fundo que o atualizarão completamente sobre os conceitos de BI e Pentaho.
Explica também como criar e carregar um data warehouse com o Pentaho Kettle para integração de dados / ETL, criar manualmente relatórios JFree (serviços de pentaho reporting) usando consultas SQL diretas, criar cubos Mondrian (serviços de análise Pentaho) e anexá-los ao navegador de cubos do Jpivot.

Linguagem: Inglês
Autores: Roland Bouman, Jos van Dongen
648 páginas - Agosto 2009
Editora: John Wiley Consumer 

Pentaho na Prática: Segunda Edição 

Este livro vai te ajudar a aprender a usar a Versão 4.8 da suite Pentaho para construir soluções de BI. É um livro principalmente técnico, mas você não precisa conhecer BI ou Pentaho para aproveitá-lo, pois ele avança paulatinamente, com minuciosas descrições.
A segunda edição traz o mesmo conteúdo da primeira, cobrindo a Suite Pentaho 4.8 (não inclui CTools), agora com uma editoração de qualidade superior, resultando em um livro de melhor qualidade.

Linguagem: Português
Autores: de Salles, Fábio, Moreno de Souza, Caio, Cesar Domingos
670 páginas - Julho 2016
Formato: eBook Kindle 

Learning Pentaho CTools

Adquira sofisticação com os recursos do CTools e crie soluções de análise ricas e personalizadas usando o Pentaho.
Se você é um desenvolvedor do CTools e gostaria de expandir seu conhecimento em criar painéis interativos, estruturas atraentes e visualizações de dados que podem fazer a diferença, esse é o livro certo para você.

Linguagem: Inglês
Autores: Miguel Gaspar
367 páginas - Maio 2016
Editora: Packt Publishing

  

Kettle - Pentaho Data Integration

 

Pentaho Data Integration Cookbook - Second Edition

O Pentaho Data Integration Cookbook Second Edition é escrito em um formato de livro de receitas. Isso permite que você vá diretamente para o seu tópico de interesse ou siga os tópicos ao longo de um capítulo para obter um conhecimento profundo. O Cookbook de Integração Segunda Edição foi desenvolvido para desenvolvedores familiarizados com o básico do Kettle, mas que desejam avançar para o próximo nível. Também é voltado para usuários avançados que desejam aprender a usar os novos recursos do PDI, bem como práticas recomendadas para trabalhar com a Kettle.

Linguagem: Inglês
Autores: Alex Meadows, Adrián Sergio Pulvirenti, María Carina Roldán
411 páginas - Dezembro 2013
Editora: Packt Publishing 

Pentaho Kettle Solutions- Building Open Source ETL Solutions with Pentaho Data Integration

Guia completo para instalação, configuração e gerenciamento de Pentaho Kettle. Se você é um administrador de banco de dados ou desenvolvedor, primeiro você terá noções básicas de Kettle e como aplica-lo para criar soluções ETL, depois avançar para os conceitos especializados, tais como clustering, extensibilidade e modelos de dados vault. Aprenda a projetar e construir todas as fases de uma solução de ETL.

Linguagem: Inglês
Autores: Matt Casters, Roland Bouman, Jos van Dongen
720 páginas - Setembro 2010
Editora: Wiley 

Learning Pentaho Data Integration 8 CE

O Pentaho Data Integration (PDI) é um ambiente gráfico e intuitivo, com design de arrastar e soltar e poderosos recursos Extract-Tranform-Load (ETL). Este livro mostra e explica os novos recursos interativos do Spoon, a aparência renovada e os recursos mais recentes da ferramenta. Além disso você aprenderá no final do livro os principais pontos de como atender os requisitos de manipulação de dados.

Linguagem: Inglês
Autores: Maria Carina Roldan
500 páginas - Dezembro 2017
Editora: Packt Publishing 

Pentaho Data Integration Quick Start Guide

O Pentaho Data Integration (PDI) é um ambiente intuitivo e gráfico, repleto de design de arrastar e soltar e poderosos recursos Extract-Transform-Load (ETL). Dado seu poder e flexibilidade, as tentativas iniciais de usar a ferramenta Pentaho Data Integration podem ser difíceis ou confusas. Este livro é a solução ideal.

Linguagem: Inglês
Autores: Maria Carina Roldan
178 páginas - Agosto 2018
Editora: Packt Publishing 

Pentaho Data Integration Beginner's Guide, Second Edition

O livro mostra todos os aspectos do Pentaho Data Integration, fornecendo instruções sistemáticas em um estilo amigável, permitindo que você aprenda brincando com a ferramenta. Ao longo do livro são fornecidas inúmeras dicas e sugestões úteis para desenvolvedores de software, administradores de banco de dados, estudantes de TI e todos os envolvidos ou interessados no desenvolvimento de soluções ETL e/ou manipulação de dados. 

Linguagem: Inglês
Autores: María Carina Roldán
502 páginas - Agosto 2013
Editora:  Packt Publishing 

Instant Pentaho Data Integration Kitchen

Um guia prático com dicas fáceis de seguir, ajudando os desenvolvedores a coletar dados de fontes diferentes, como bancos de dados, arquivos e aplicativos, transformar os dados em um formato unificado, acessível e relevante para os usuários finais. Você aprenderá como usar as ferramentas de linha de comando com eficiência ou para aprofundar alguns aspectos das ferramentas para ajudá-lo a trabalhar melhor.

Linguagem: Inglês
Autores: Sergio Ramazzina
59 páginas - Julho 2013
Editora: Packt Publishing 

 

Pentaho Report Designer

 

Pentaho 5.0 Reporting by Example: Beginners Guide

Um tutorial prático, incluindo vários exemplos de gerenciamento de aplicativos usando o Citrix XenApp 6.5. O Citrix XenApp Performance Essentials é destinado a arquitetos de TI e administradores de sistemas que trabalham com o Citrix XenApp, onde é necessário um guia prático e ágil para ajustar e otimizar o desempenho.

Linguagem: Inglês
Autores: Mariano Garcia Matti­o, Dario R. Bernabeu
212 páginas - Agosto 2013
Editora: Packt Publishing 

Pentaho Reporting 3.5 for Java Developers

Você que precisa instalar uma solução de relatório em seu ambiente e deseja aprender conceitos avançados no Pentaho Reporting, como sub-relatórios, guias cruzadas, configuração da fonte de dados e relatórios baseados em metadados, este é seu livro.
Tutorial muito prático, repleto de exercícios e exemplos, apresenta uma variedade de conceitos no Pentaho Reporting. Com capturas de tela que mostram como os relatórios são exibidos no tempo de design e como devem ser renderizados em PDF, Excel ou HTML.

Linguagem: Inglês
Autores: Will Gorman
260 páginas - Setembro 2009
Editora: Packt Publishing 

Pentaho 8 Reporting for Java Developers

Crie os melhores relatórios e resolva problemas comuns com o mínimo de esforço dominando os recursos básicos e avançados do Pentaho 8 Reporting.
Este tutorial prático, repleto de exercícios e exemplos, apresenta uma variedade de conceitos no Pentaho Reporting. Com capturas de tela que mostram como os relatórios são exibidos no tempo de design e como devem ser renderizados quando PDF, Excel, HTML, Texto, Arquivo Rich Text, XML e CSV.

Linguagem: Inglês
Autores: Francesco Corti
351 páginas - Setembro 2017
Editora: Packt Publishing

 

Pentaho Business Analytics

 

Pentaho Business Analytics Cookbook

Este guia prático contém uma ampla variedade de dicas, levando você a todos os tópicos necessários para se familiarizar rapidamente com o Pentaho e ampliar seu conjunto de habilidades Pentaho. Se você está envolvido em atividades diárias usando a plataforma Pentaho Business Analytics, este é o livro para você. É um bom companheiro para você se familiarizar rapidamente com tudo o que precisa para aumentar sua produtividade com a plataforma. Assumimos familiaridade básica com Pentaho, design de data warehouse e SQL, HTML e XML.

Linguagem: Inglês
Autores: Sergio Ramazzina
366 páginas - Junho 2014
Editora: Packt Publishing 

Pentaho Analytics for MongoDB

Este é um guia fácil de seguir sobre os principais pontos de integração entre o Pentaho e o MongoDB. Empregando uma abordagem prática projetada para que o Pentaho seja configurado para conversar com o MongoDB desde o início, para que você obtenha resultados rápidos.
Este livro é destinado a analistas de negócios, arquitetos de dados e desenvolvedores novos no Pentaho ou no MongoDB que desejam oferecer uma solução completa para armazenamento, processamento e visualização de dados.

Linguagem: Inglês
Autores: Bo Borland
99 páginas - Fevereiro 2014
Editora: Packt Publishing  

Pentaho Analytics for MongoDB Cookbook

Mais de 50 receitas para aprender a usar o Pentaho Analytics e o MongoDB para criar soluções poderosas de análise e relatório. Acelere o acesso a dados e maximize a produtividade com recursos exclusivos do Pentaho para MongoDB.
O livro ensinará como explorar e visualizar seus dados no Pentaho BI Server usando o Pentaho Analyzer, criar painéis avançados com seus dados além de guiar você pelo Pentaho Data Integration e saber como ele funciona com o MongoDB. 

Linguagem: Inglês
Autores: Joel Latino, Harris Ward
131 páginas - Setembro 2016
Editora: Packt Publishing 

Pentaho for Big Data Analytics

O livro é um guia prático, cheio de exemplos passo a passo fáceis de seguir e implementar. É destinado para desenvolvedores, administradores de sistema e profissionais de inteligência de negócios que desejam aprender como obter mais de seus dados através do Pentaho.

Linguagem: Inglês
Autores: Manoj R Patil, Feris Thia
70 páginas - Novembro 2013
Editora: Packt Publishing

 

Livros sobre Conceitos de Business Intelligence

 

Business Intelligence Guidebook from Data Integration to Analytics

Entre os conceitos de alto nível de inteligência de negócios e as instruções detalhadas para o uso das ferramentas dos fornecedores, encontra-se a camada essencial, ainda que pouco compreendida, da arquitetura, design e processo. Sem esse conhecimento, o Big Data é menosprezado - os projetos fracassam, estão atrasados ​​e ultrapassam o orçamento.
Com as diretrizes práticas para a criação de soluções bem-sucedidas de BI, DW e integração de dados, você poderá projetar a arquitetura geral para os sistemas de inteligência de negócios em funcionamento com os aplicativos de armazenamento de dados e integração de dados. 

Linguagem: Inglês
Autores: Rick Sherman
675 páginas - Novembro 2014
Editora: Elsevier Science

Successful Business Intelligence: Unlock the Value of BI & Big Data, Second Edition

Expandido para cobrir o que há de mais recente em inteligência de negócios - big data, nuvem, celular, descoberta de dados visuais e memória -, este best-seller totalmente atualizado pelo guru de BI Cindi Howson fornece as técnicas mais modernas para explorar o BI com o maior ROI.
O livro baseia-se em dados de pesquisas exclusivas e estudos de caso reais de histórias de sucesso de BI na Netflix, Medtronic, Macys.com, The Dow Chemical Company, Learning Circle e outras empresas para identificar as melhores práticas comprovadas de BI que podem ser usadas corretamente longe.
Este guia prático é a chave para reunir inovações tecnológicas com as pessoas, processos e cultura de qualquer organização, a fim de alcançar uma estratégia de BI competitiva e lucrativa.

Linguagem: Inglês
Autores: Cindi Howson
331 páginas - Outubro 2013
Editora: Mcgraw-hill 

Star Schema The Complete Reference

Aprenda as melhores práticas de design dimensional. Esquema em estrela (Star Schema): a referência completa oferece uma cobertura detalhada dos princípios de design e seus fundamentos subjacentes. Organizado em torno dos conceitos de design e ilustrado com exemplos detalhados, este é um guia passo a passo para iniciantes e um recurso abrangente para especialistas.
Este volume começa com os fundamentos dimensionais do projeto e mostra como eles se encaixam em diversas arquiteturas de data warehouse, incluindo as de W.H. Inmon e Ralph Kimball. Através de uma série de técnicas avançadas que ajudam a lidar com a complexidade do mundo real, maximizar o desempenho e se adaptar aos requisitos dos produtos de software de BI e ETL. 

Linguagem: Inglês
Autores: Christopher Adamson
653 páginas - Julho 2010
Editora: Mcgraw-hill 

BI Como Deve Ser: O Guia Definitivo

A obra BI Como deve ser uma novidade no ramo de Business Intelligence , pois toda a discussão é centrada na explicação direta e objetiva de como os profissionais de tecnologia ou os negócios podem iniciar o projeto de BI do zero.
Diferenciação e linguagem clara, o livro BI Como Deve ser a busca por informação, como também por profissionais da área de negócios.

Linguagem: Português
Autores: Diego Elias Oliveira e Grimaldo Lopes de Oliveira
Acesse: https://www.bicomodeveser.com.br

 

Data Warehouse - Modelo Dimensional 

 

The Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling

Modelagem dimensional tornou-se a abordagem mais amplamente aceite para os projetos de data warehouses. Uma biblioteca completa com técnicas de modelagem dimensional - a mais completa coleção já escrita. Expandida para cobrir as técnicas básicas e avançadas para otimizar os dados do projeto do data warehouse, guia clássico de Ralph Kimball.

Linguagem: Inglês
Autor: Ralph Kimball, Margy Ross
464 páginas - Abril 2002
Editora: Wiley

Dimensional Modeling: In a Business Intelligence Environment

Nesta publicação Redbooks IBM são demonstradas técnicas de modelagem de dados dimensional e tecnologia, voltados especificamente para business intelligence e data warehousing. Ajudar o leitor a compreender como projetar, manter e utilizar um modelo dimensional para armazenamento de dados que podem fornecer o acesso a dados e desempenho necessários para inteligência de negócios.

Linguagem: Inglês
Autores: Chuck Ballard, Daniel M. Farrell, Amit Gupta, Carlos Mazuela, Carlos Mazuela
664 páginas - Março 2006 ( Atualizado maio 2008 )
Editora: Redbooks

Onde realizar Download: http://www.redbooks.ibm.com/abstracts/sg247138.html?Open

 

MDX - MultiDimensional eXpressions

 

MDX Solutions: With Microsoft SQL Server Analysis Services

Um tutorial prático sobre a construção e utilização de armazéns de dados multidimensionais. A linguagem de consulta SQL é usado para acessar dados em bancos de dados. Mas, para armazéns multidimensional (OLAP), a Microsoft desenvolveu MDX. A linguagem de consulta MDX se tornou essencial know-how para os desenvolvedores e usuários, seja para armazéns de dados ou para elaboração de orçamentos e sistemas de planejamento.

Linguagem: Inglês
Autor: George Spofford
416 páginas - Julho 2001
Editora: Wiley

InfoSphere Warehouse: Cubing Services and Client Access Interfaces

Este livro tem um excelente capítulo sobre MDX, os demais são aplicados a tecnologias IBM. InfoSphere Warehouse ™ .
Panorama com objetivo principal de discutir e descrever as capacidades de um determinado componente do InfoSphere Warehouse: InfoSphere Warehouse Cubing.

Linguagem: Inglês
Autores: Chuck Ballard, Deepak Rangarao, Jimmy Tang, Philip Wittann, Zach Zakharian, Andy Perkins, Robert Frankus
446 páginas - Dezembro 2008
Editora: Redbooks 

Onde realizar Download: http://www.redbooks.ibm.com/abstracts/sg247582.html?Open 

{loadposition sobre-ambientelivre-bi}

Instalando e configurando o plugin Saiku Business Analytics no Pentaho CE

$
0
0

O Saiku Business Analytics é um cliente web OLAP disponível como  plugin para o Pentaho Business Intelligence Server. Ele usa o Pentaho Analisys (Mondrian) para proporcionar uma forma fácil e amigável de usar o recurso de cubos OLAP com uma experiência simples para usuário final.

O Saiku permite que os usuários de negócios explorem fontes de dados complexas, usando uma interface familiar de arrastar e soltar e terminologia de negócios fácil de entender, tudo dentro de um navegador. Selecione os dados que você está interessado, olhe para ele de perspectivas diferentes, faça um detalhamento. Depois de ter sua resposta, salve seus resultados, compartilhe-os, exporte-os para o Excel ou PDF, tudo diretamente do navegador.

Assim como o Pentaho Business Intelligence, o Saiku tem uma versão community (Saiku CE) e uma versão comercial(Saiku EE).

Este tutorial foi escrito baseado na versão 3.90 do Saiku Analitycs e instalação no Pentaho BI Server 8.0, 8.1,8.2 e 8.3 Community Edition para instalação via donwload do site oficial do projeto Saiku e também demonstraremos via marketplace, via MarketPlace já é disponível desde a versão Pentaho 4.8 CE, que tem um procedimento similar de forma automática.

Se quiser experimentar o mais recente (instável) , ou ter mais informações visite o site do produtor: http://meteorite.bi/saiku

Descrevemos duas formas de instalação:  Manual ou instalação via Marketplace, em ambas terá de realizar um cadastro no site para gerar um arquivo de licença (Sim apesar de ser open source e as regras da Apache Software Foundation permitem a geração de licenças, a mesma e gratuita e no máximo receberá um spam de propaganda que vale a pena pelo produto) 

Quer conhecer rápidamente o Saiku antes de instalar? veja o Vídeo!

 

Instalando o Saiku Business Analitycs - via marketplace (Pentaho 4.x,5.x,6.x,7.x,8.0 e 8.1)

  1. Acesse seu Pentaho Server com um usuário administrador (Exemplo: admin)




  2. No Pentaho Server acesse o menu Home -> Marketplace conforme imagem a seguir:







  3. Na opção Search informe o nome Saiku para filtrar os itens do marketplace conforme imagem a seguir:





  4. ATENÇÃO! Se clicar diretamente para instalar a opção que terá e a versão EE, que vem como default na ferramenta , então se quiser a versão community livre de custos, clique sobre qualquer local da linha do saiku (menos no install) e altere para a versão Community conforme imagem.







  5. Confirme a instalação do Saiku Community ( Version 3.90 Stable)






  6. Após realizar o download e instalar o plugin uma mensagem de confirmação será apresentada e deve reiniciar o Pentaho Server


  7. Acesse seu Pentaho Server e em File -> New -> Saiku Analytics inicie o mesmo, será aberta uma tela de propaganda e terá mais um ícone no mesmo para o Saiku Analitycs conforme imagem abaixo, clique em create new query:





  8. Pronto pode utilizar o Saiku Analitycs.

 

Instalando Saiku Analitycs - manualmente(Pentaho 8.2, 8.3 ou qualquer outra versão)

 

  1. Pare a execução do servidor Pentaho Server.

  2. Acesse o Marketplace da Pentaho em https://marketplace.hitachivantara.com/pentaho/

  3. Filtre pela versão Pentaho 8.1 ( Pois os desenvolvedores do Saiku não validaram oficialmente para 8.2 ainda para CE somente EE) e filtre por Saiku no campo search conforme imagem.





  4. Clique sobre o Saiku Analytics e depois em download plugin (No momento que escrevemos este artigo o arquivo era saiku-plugin-p7.1-3.90.zip e a versão 3.90)


  5. Extraia o conteúdo do zip e teremos um diretório chamado saiku , copie o diretório saiku para <seupathdeinstalacaopentaho>/pentaho-server/pentaho-solutions/system



  6. O Saiku tem licença apache mas cada usuário deve ter uma licença individual e podem ser geradas em https://licensing.meteorite.bi/ , acesse o site registre-se e será gerado um arquivo chamado licenses.lic



  7. Copie este arquivo para a pasta <seupathdeinstalacaopentaho>/pentaho-server/pentaho-solutions/system/saiku


  8. Inicie o Pentaho-Server.


  9. Acesse seu Pentaho Server e em File -> New -> Saiku Analytics inicie o mesmo, será aberta uma tela de propaganda e terá mais um ícone no mesmo para o Saiku Analitycs conforme imagem abaixo, clique em create new query:





  10. Pronto pode utilizar o Saiku Analitycs!

 

Removendo propagandas do Saiku -  Splash

 Sempre quando aberto no Pentahu User Console o Saiku vem com propagandas que num ambiente de produção não são adequados e interessantes , como o código de tudo é aberto podemos retirar esta tela de propaganda chamada Splash.

 

  1. Após Instalar o Saiku acesse em seu Pentaho Server o arquivo JS ../pentaho-server/pentaho-solutions/system/saiku/ui/saiku.min.js
  2. Procure no mesmo esta linha ( são diversos lugares com a mesma linha , na versão que estamos existiam em 4 locais ):

    !Settings.INITIAL_QUERY&&d.splash?Saiku.tabs.add(new SplashScreen)

  3. Substitua o que esta em negrito da linha acima pelo que esta em negrito da linha abaixo:

    !Settings.INITIAL_QUERY&&d.splash?Saiku.tabs.add(new Workspace)

  4. Limpe seu cache do navegador e abra o Saiku novamente , verá que agora não teremos mais as propagandas.

  5. Para limpar todos caches do Tomcat reinicie o Server.

 

Bugs que podem ser encontrados e corrigidos ( algumas versões)

Exportação

Algumas Bibliotecas do Apache Poy

 

 Erros Comuns

 

  • Falta de Licença.

    "There has been an error creating a session: No license found, please fetch a free license from http://licensing.meteorite.bi and move it to: pentaho-solutions/system/saiku/license.lic"

    Como o próprio erro alerta ou você não adicionou o arquivo de licença ou esta no diretório incorreto , o arquivo pode ser adicionado a pasta sem necessidade de reiniciar o Pentaho Server.


  • Problemas de Proxy(bloqueio ) ou falha para baixar arquivo do repositório/marketplace

"Error occurred when installing plugin Saiku Analytics.[Failed to execute install, see log for details.]"

E comum também receber um erro quando tentamos baixar pelo repositório ( veja imagem ) , caso tenha este problema faça a instalação do modo manual.

 

 

Fonte e mais informações no site Oficial do Projeto Saiku :  https://community.meteorite.bi/

 

Atualização!!

A alguns meses não temos recebido atualizações do Saiku, nós da Ambiente Livre realizamos o Ambiente Livre Labs algumas vezes no ano no último ajustamos diversos bugs do Saiku para a versão 9 do Pentaho e vocês podem baixar daqui, criamos um saiku-fix até termos outras alternativas. tem tudo que esta neste tutorial e mais um pouco.

https://github.com/ambientelivre/saiku-fix

 


Sobre a Ambiente Livre

A Ambiente Livre Business Intelligence é especialista em utilização do Pentaho BI para geração de negócios com soluções open source. fornecemos implantação de Pentaho, integração, consultoria em business intelligence , consultoria em Pentaho Business Intelligence, treinamento em Pentaho BI , Saiku Server Report e Analytics.

 

Conectando o Pentaho ao Banco de Dados Oracle

$
0
0

Com o Pentaho podemos utilizar qualquer SGBD para armazenamento do nosso Data Warehouse ou para extração de dados e apresentação de relatórios. Dois itens são importantes para conectar o Pentaho ao SGBD da Oracle, primeiramente o Driver deve estar nos seus devidos locais de bibliotecas externas e a string de conexão estar configurada corretamente.

Driver

O Driver da Oracle não pode ser distribuído juntamente com aplicações sem um contrato de OEM, porém o mesmo pode ser baixado gratuitamente do site do fabricante : https://www.oracle.com/database/technologies/appdev/jdbc-downloads.html

Faça o download de acordo com sua versão, quando publicamos este artigo o mais atual era o ojdbc10.jar, que poderia ser usado para Oracle 9,10 e 10g, etc até a versão 19c.

Para o Ambiente Server do Pentaho devemos adicionar o driver em duas localidades (diretórios):

PUC - Pentaho User Console

../pentaho-server/tomcat/lib

Este é o diretório padrão do Tomcat para bibliotecas externas.

String de Conexão


Cada SGBD tem a string de conexão com características diferentes , quando queremos usar uma conexão JNDI ou JDBC.

A String de Conexão JDBC e JNDI do Oracle e composta por alguns parâmetros , seguem quais são e uma breve descrição sobre cada um deles:

  • Driver Class:  Classe Java responsável pela conexão -> Exemplo:  oracle.jdbc.driver.OracleDriver
  • Tipo da Conexão: JDBC
  • Nome do Banco de Dados: Nesta caso oracle:thin que é o Padrão para o Oracle DB.
  • Nome ou IP do Servidor: IP ou DNS onde se encontra o servidor do Banco de Dados Oracle, caso seu Pentaho e Oracle estejam na mesma máquina informar localhost.
  • Porta: Porta de conexão com o banco de Dados , A Porta padrão do Oracle é a 1531 , caso seu banco tenha outro padrão de portal altere conforme sua necessidade.
  • SID: Nome do SID ou Oracle System ID , especificado no arquivo tnsnames.ora, geralmente conforme abaixo porem dependendo da versão ou da customização de instalação pode ter outras referencias como XE etc.

Exemplo de um tnsnames.ora com o SID chamado ORCL

ORCL =
 (DESCRIPTION =
   (ADDRESS = (PROTOCOL = TCP)(HOST = myhost)(PORT = 1521))
   (CONNECT_DATA =
     (SID = ORCL)
   )
 )


Após saber a funcionalidade de cada um dos parâmetros podemos criar a nossa string de conexão com o Oracle no Pentaho Server usando a seguinte linha de referência  e alterando seus valores:

jdbc:oracle:thin:@:porta:SID


Para um banco de Dados Oracle  no servidor oracle.ambientelivre.com.br na porta 1521 e no SID XE teríamos :

jdbc:oracle:thin:@oracle.ambientelivre.com.br:1521:XE


Esta string é solicitada no Pentaho User Console quando for criar novas conexões do Pentaho para o Oracle.

Conexão com Oracle nas CTools - CDE


O data source do grupo sqlover sqlJdbc do módulo CDE, pode ser configurado conforme parâmetros  do exemplo a seguir:

  • Name: Nome da query
  • Name: oracle.jdbc.driver.OracleDriver
  • URL: jdbc:oracle:thin:@host:porta:SID
  • user: utilizador
  • password: teste
  • Query: select sysdate from dual

{loadposition sobre-ambientelivre-bi}

 

Instalando o Pentaho Data Integration - PDI - (Kettle) no Linux

$
0
0

 

 

Pentaho Data Integration ou também chamado por seu codinome de projeto como Kettle e uma ferramenta de ETL (Extração, Transformação e Carga do inglês Extract, Transform and Load) que faz parte da plataforma Pentaho Business Intelligence e Analitycs. O mesmo pode ser instalado separadamente sem a necessidade de mais nenhum dos softwares adicional da plataforma de BI do Pentaho e usado exclusivamente para ETL.

Pré-Requisitos.

O único pré-requisito e ter um runtime Java (máquina virtual java ) instalada ou uma JDK (Kit de Desenvolvimento Java) , que pode ser de implementação aberta ( OpenJDK) ou fechada ( como a da Oracle) e pode ser realizado o download em https://www.oracle.com/technetwork/pt/java/javase/downloads/index.html. Cada versão do Pentaho Data Integration teremos uma versão do Java, no momento que escrevemos neste artigo usamos a versão 8.3 do Pentaho Data Integration que exige a versão 1.8 do Java ou superior.

 

Curiosidade: Um apelido do Pentaho Data Integration usado pela maioria dos desenvolvedores e usuário do Pentaho Data Integration é a sigla PDI. 

Download.

Primeiramente acesse o repositório oficial do Pentaho no SourgeForge.net em http://sourceforge.net/projects/pentaho/files/ depois selecione a versão mais recente (ex. Pentaho 8.3) e depois acessar a divisão client-tools (onde estão as ferramentas clients), quando descrevemos este artigo a ultima versão era a 8.3, e o arquivo para realizar o download neste caso era o pdi-ce-8.3.0.0-371.zip (tanto para GNU/Linux como Windows o pacote de instalação e o mesmo o .zip)

Instalando o Pentaho Data Integration.

  • Para instalar o Pentaho Data Integration no Linux crie o diretório em /opt/pentaho/client-tools  como o comando mkdir -p /opt/pentaho/client-tools (Está é uma recomendação e não obrigatoriedade, funciona em qualquer diretório).
  • Descompacte o pacote pdi-ce-x.xx.zip ( onde xx é sua versão ) no diretorio /opt/pentaho/client-tools será criado o diretório data-integration.
  • Pelo prompt shell acesse o diretório data-integration e de permissão a todos os arquivos com extensão .sh como o comando a seguir:

chmod 755 *.sh

  • Pentaho Data Integration tem 4 componentes de software (spoon, carte, kitchen e pan) o responsável pela criação dos ETLs (Transformações e Jobs) de forma visual é o Spoon e para iniciar o Spoon do Pentaho Data Integration execute o comando:

./spoon.sh

  • Será aberto a PDI com a tela de inicialização abaixo e em seguida o ambiente de trabalho de Transformações e Jobs.

 

 

Observações específicas de alguns sistemas operacionais.

Pentaho Data Integration no Ubuntu 11.04.

Quem estiver utilizando o Pentaho Data Integration com o Ubuntu 11.04 poder estar tendo o seguinte problema, ao tentar arrastar os steps para um transformação os mesmos não ficam na área de transformação. constatamos isso numa versão especifica do ubuntu ainda no PDI 5, conforme a imagem a seguir.

 

Para corrigir esse problema siga os seguintes passos:

  • Remova as bibliotecas lib:
    overlay-scrollbar
    liboverlay-scrollbar-0.1-0
  • Para remover utilize o seguinte comando:

    sudo apt-get remove overlay-scrollbar liboverlay-scrollbar-0.1-0
  • Reinicie o Pentaho Data Integration


Quer virar um especialista em Pentaho Data Integration? participe de nossas formações especificas do Pentaho Data Integration ou uma formação completa do Pentaho Business Intelligence e Analitycs.

 {loadposition sobre-ambientelivre-bi}

Kimball University: As 10 Regras Essenciais para a Modelagem de Dados Dimensional

$
0
0

 

Margy Ross – Presidente Kimball Group
Maio de 2009, Intelligent Enterprise.com


Tradução livre para a língua portuguesa por BI Experts ( Parceira em capacitação de Business Intelligence da Ambiente Livre) e revisado por Ambiente Livre.

Um estudante participando de uma aula recente de modelagem dimensional do Kimball Group perguntou-me se existia uma lista de “recomendações Kimball” para a modelagem dimensional.

Abstendo-se de utilizar uma terminologia religiosa, podemos dizer que as regras a seguir não devem ser quebradas e também existem algumas regras de ouro não tão severas a serem seguidas.


Regra #1: Carregue dados detalhados para as estruturas dimensionais.

Modelos dimensionais devem ser populados com um alicerce de dados detalhados para suportar os requisitos imprevisíveis de filtragem e agrupamento necessárias para atender as consultas dos usuários de negócios. Usuários normalmente não precisam visualizar um registro por vez, mas é impossível prever em quais diferentes maneiras eles pretendem ver os dados e acessar os detalhes. Se apenas dados agregados estiverem disponíveis, então você já deve ter se deparado com padrões de utilização dos dados que levaram os usuários a chegar a uma barreira intransponível quando eles querem acessar os detalhes. É claro, dados detalhados podem ser complementados por modelos dimensionais agregados que trazem vantagens de desempenho para consultas frequentes de dados sumarizados, mas os usuários de negócios não conseguem viver apenas dos dados agregados; eles precisam dos detalhes sangrentos para responder seus diferentes questionamentos.

Regra #2: Estruture os modelos dimensionais em torno dos processos de negócios.

Os processos de negócios são as atividades desenvolvidas por sua empresa; elas representam eventos mensuráveis, como registrar um pedido ou emitir uma fatura para um consumidor. Processos de negócios normalmente capturam ou geram métricas únicas de desempenho associadas a cada evento. Estas métricas traduzidas em fatos, com cada processo de negócios representado por uma única tabela fato.
Além destas tabelas fato para cada processo, tabelas fato consolidadas às vezes são criadas para combinar métricas de vários processos em uma tabela fato com um nível padronizado de detalhe. Novamente, tabelas fato agregadas são um complemento para as tabelas fato detalhadas relacionadas aos processos de negócio, e não um substituto para elas.

Regra #3: Tenha certeza de que cada tabela fato tenha uma dimensão de data associada.

Os eventos mensuráveis descritos na Regra #2 sempre tem uma data de algum tipo associada a eles, sejam eles um balancete mensal ou uma transferência de dinheiro registrada em seu centésimo de segundo. Cada tabela fato deve ter ao menos uma chave estrangeira associada a uma tabela de dimensão data, cuja granularidade é cada único dia, com os atributos de calendário e suas características não padronizadas relacionadas a data do evento, como o período fiscal ou um indicador corporativo de feriado. Às vezes multiplas chaves estrangeiras de data estão ligadas em uma única tabela fato.

Regra #4: Certifique-se que todos os fatos em uma única tabela fato estão na mesma granularidade ou nível de detalhe.

Existem três granularidades fundamentais para classificar todas as tabelas fato:  transacional, snapshot periódico, ou snapshot acumulado. Independente de sua granularidade, cada métrica em uma tabela fato deve estar exatamente no mesmo nível de detalhe. Quando você mistura fatos representando muitos níveis de granularidade em uma mesma tabela fato, você estará criando confusão para os usuários de negócios e tornando as aplicações de BI vulneráveis a erros de valores ou outros resultados incorretos.

Regra #5: Resolva relacionamentos muitos-para-muitos em tabelas fato.

Como uma tabela fato guarda os resultados de um evento de um processo de negócios, existem inerentemente relacionamentos muitos-para-muitos (M:M) entre suas chaves estrangeiras, como diferentes produtos vendidos em diferentes lojas em diferentes dias. Estes campos de chaves estrangeiras nunca devem conter valores nulos. Às vezes dimensões podem ter valores diferentes para uma único métrica,
como diferentes diagnósticos associados com uma consulta médica ou diferentes clientes de uma conta bancária. Nestes cados, seria irracional resolver as dimensões multi-valoradas diretamente na tabela fato, pois isto poderia violar a granularidade natural da métrica. Neste caso, podemos usar um relacionamento muitos-para-muitos, com uma tabela de relacionamento em conjunto com a tabela fato.

Regra #6: Resolva os relacionamentos muitos-para-um nas tabelas de dimensões.

Hierarquicamente, relacionamentos muitos-para-um (M:1) entre atributos são normalmente desnormalizados ou concentrados em uma única tabela dimensão. Caso você não queira passar a maior parte de sua carreira desenhando modelos entidade-relacionamento para sistemas transacionais, você precisa resistir a sua instintiva tendência a normalizar ou criar um snowflake com subdimensões menores para cada relacionamento M:1; desnormalização de dimensões é a regra do jogo na modelagem dimensional.
É bastante comum ter muitos relacionamentos M:1 em uma única tabela dimensão.
Relacionamentos um-para-um, como uma única descrição de produto associada a um código de produto, também são encontradas em uma tabela dimensão.
Ocasionalmente relacionamentos muitos-para-um são resolvidos na tabela fato, como no caso de uma tabela de dimensão detalhada com milhões de linhas e com atributos frequentemente atualizados. Entretanto, usar a tabela fato para resolver relacionamentos M:1 deve ser feito de forma moderada.

Regra #7: Gravar nomes de relatórios e valores de domínios de filtros em tabelas dimensão.

Os códigos e, mais importante ainda, as decodificações e descrições associadas a eles usadas como nomes de colunas em relatórios e como filtros em consultas devem ser gravadas em tabelas dimensionais. Evite gravar campos com códigos criptográficos ou volumosos campos descritivos na própria tabela fato; da mesma forma, não grave apenas o código na tabela de dimensão e assuma que os usuários não precisam das decodificações descritivas ou que elas pódem ser resolvidas na aplicação de BI. Se a informação for um nome de linha/coluna ou um filtro de menu, então ela deve ser tratada como um atributo de dimensão.
Embora tenhamos dito na Regra #5 que as chaves estrangeiras de tabelas fato nunca devem ser nulas, também é aconselhável evitar nulos em campos de atributos de tabelas dimensão trocando o valor nulo por um valor como "NA" (não se aplica) ou algum outro valor padrão, determinado pela administração de dados, para reduzir a confusão entre os usuários se possível.

Regra #8: Tenha certeza de que as tabelas dimensão usam uma chave artificial.

Chaves artificiais, sem significado e sequenciais (exceto para a dimensão data, onde chaves cronologicamente definidas e mais inteligíveis são aceitáveis) provém um grande número de benefícios operacionais; chaves menores significam menores tabelas fato, menores índices, e desempenho melhorado. Chaves artificiais são absolutamente necessárias no caso de você estar registrando as alterações dos atributos da dimensão com uma nova linha para cada mudança. Mesmo que seus usuários de negócios inicialmente não visualizem o valor de registrar as alterações nos atributos, usar chaves artificiais tornará uma futura alteração de política menos onerosa. As chaves artificiais também permitem mapear múltiplas chaves
transacionais para um único perfil, adicionalmente protegendo contra atividades operacionais inesperadas, como a reutilização de um código de produto obsoleto ou a aquisição de uma outra empresa com suas próprias regras de codificação.

Regra #9: Crie dimensões padronizadas para integrar os dados na empresa.

Dimensões padronizadas (também conhecidas por dimensões comuns, principais, ou de referência) são essenciais para o data warehousing empresarial. Gerenciadas no sistema de ETL e então reutilizadas associadas a diversas tabelas fato; dimensões padronizadas trazem atributos descritivos consistentes para os modelos dimensionais e permitem a habilidade de navegar através dos dados integrados de diferentes
processos de negócios. A matriz de negócios da empresa é o diagrama de arquitetura chave para representar os processos de negócios principais da organização e suas dimensões associadas. A reutilização das dimensões padronizadas finalmente diminui o tempo de desenvolvimento eliminando o desenho redundante e o esforço de desenvolvimento; entretanto, dimensões padronizadas requerem um compromisso e investimento em administração de dados e governância, desta forma você não precisa que cada pessoa concorde com cada uma das dimensões para atingir a conformidade.

Regra #10: Avalie requisitos e realidade continuamente para desenvolver uma solução de DW/BI que seja aceita pelos usuários de negócios e suporte seu processo de tomada de decisões.

Os responsáveis pela modelagem dimensional devem constantemente balancear os requisitos do usuários de negócios com as realidades inerentes aos dados de origem associados para desenvolver um modelo que possa ser implantado, e que, mais importante ainda; tenha uma boa chance de ser útil aos negócios. A avaliação dos requisitos-verus-realidades é parte da tarefa dos desenvolvedors de DW/BI, apesar de você estar focado na modelagem dimensional, estratégia do projeto, arquiteturas técnica/ETL/BI ou implantação/planejamento de manutenção.
Se você tem lido nossos artigos na Intelligent Enterprise, os livros Toolkit ou as dicas de Arquitetura mensais, estas regras não devem ser novas para você, mas aqui você as tem consolidadas em um único local que póde ser utilizado como referência para quando você estiver envolvido no desenho ou revisão de seus modelos.

{loadposition sobre-ambientelivre-bi}

Viewing all 53 articles
Browse latest View live