Material Big Data

Lanzados ppts informativos de tecnologías BigData: Hadoop, Hbase, Hive, Zookeeper...

Te presentamos la mejor plataforma de Planificación y Presupuestacion BI

Forecasts, Web and excel-like interface, Mobile Apps, Qlikview, SAP and Salesforce Integration...

Pentaho Analytics. Un gran salto

Ya se ha lanzado Pentaho 7 y con grandes sorpresas. Descubre con nosotros las mejoras de la mejor suite Open BI

La mejor oferta de Cusos Open Source

Después de la gran acogida de nuestros Cursos Open Source, eminentemente prácticos, lanzamos las convocatorias de 2016

3 oct. 2016

Convocados Cursos sobre herramientas Open Source (presencial y online)


Ya están convocados, (comenzando a mediados de Octubre y concluyendo a finales de año), la más variada oferta de Cursos sobre soluciones Open Source que se realizan en modalidades presencial y online)

Cursos Convocados:



1 comentarios:

Anónimo dijo...

Hola veo que trabajaís bastante con herramientas open source, so incluyo una duda sobre pentaho DI y big data:

Estoy intentando leer ficheros de un HDFS en Hadoop desde Pentaho DI y me da problemillas:
- Pentaho DI (open source) machine Win 7 version 6.1
- HDFS en Virtual Machine Cloudera Quick Start 5.4
He indicado my distribución de Hadoop (cdh55) en Tools, He creado un cluster que apunta a la MV y al probarlo funciona correctamente.
Entonces creo un paso Hadoop File Input, puedo explorar los directorios del cluster y seleccionar u fichero, pero tengo problemas al intentar leerlo::
......

at org.pentaho.commons.launcher.Launcher.main (Launcher.java:92)
at java.lang.reflect.Method.invoke (null:-1)
at sun.reflect.DelegatingMethodAccessorImpl.invoke (null:-1)
at sun.reflect.NativeMethodAccessorImpl.invoke (null:-1)
at sun.reflect.NativeMethodAccessorImpl.invoke0 (null:-2)
at org.pentaho.di.ui.spoon.Spoon.main (Spoon.java:662)
at org.pentaho.di.ui.spoon.Spoon.start (Spoon.java:9269)
at org.pentaho.di.ui.spoon.Spoon.waitForDispose (Spoon.java:7989)
at org.pentaho.di.ui.spoon.Spoon.readAndDispatch (Spoon.java:1347)
at org.eclipse.swt.widgets.Display.readAndDispatch (null:-1)
at org.eclipse.swt.widgets.Display.runDeferredEvents (null:-1)
at org.eclipse.swt.widgets.Widget.sendEvent (null:-1)
at org.eclipse.swt.widgets.EventTable.sendEvent (null:-1)
at org.eclipse.jface.action.ActionContributionItem$5.handleEvent (ActionContributionItem.java:402)
at org.eclipse.jface.action.ActionContributionItem.access$2 (ActionContributionItem.java:490)
at org.eclipse.jface.action.ActionContributionItem.handleWidgetSelection (ActionContributionItem.java:545)
at org.eclipse.jface.action.Action.runWithEvent (Action.java:498)
at org.pentaho.ui.xul.jface.tags.JfaceMenuitem$1.run (JfaceMenuitem.java:106)
at org.pentaho.ui.xul.jface.tags.JfaceMenuitem.access$100 (JfaceMenuitem.java:43)
at org.pentaho.ui.xul.impl.AbstractXulComponent.invoke (AbstractXulComponent.java:141)
at org.pentaho.ui.xul.impl.AbstractXulComponent.invoke (AbstractXulComponent.java:157)
at org.pentaho.ui.xul.impl.AbstractXulDomContainer.invoke
.....
No estoy seguro de que el problema sea Pentaho, he chequeado el servicio HDFS de Hadoop y está activo.

Podeís ayudarme?
Gracias por adelantado