iserver数据注册HDFS,没有数据集

0 投票

请问,hdfs中的csv格式数据注册到iserver10,有什么特殊操作吗,不知道为什么注册后,没有数据集,不知道在哪进行文件验证。

3月 12 分类:  74次浏览 | 用户: shuoyu (3 分)

1个回答

0 投票
您好,您可以尝试把hdfs://192...../csv/.csv的地址写到上一级目录试一下
3月 13 用户: 于浩 登峰造极 (5,665 分)
写成目录效果是一样的,还是读不出数据集。
您的大数据环境是什么版本的?hadoop、hbase等具体版本。然后您把iserver停止服务把logs文件夹里的内容删除后重新启动iserver再操作一遍,然后把新的logs文件夹的内容打包发一下。用百度网盘链接就行
集群环境
ubuntu16.04
jdk1.8
hadoop-2.7.3.tar.gz
hbase-1.3.3-bin.tar.gz
scala-2.11.8.tgz
spark-2.3.2-bin-hadoop2.7.tgz
zookeeper-3.4.6.tar.gz
日志链接
链接:https://pan.baidu.com/s/1oMR-cDL3BOBzLRKjGE-Aug
提取码:g9bn
看了一下日志的内容,提示了一个“暂不支持meta类型的数据文件  ”的错误。您这边测试一下如果是使用我们默认的数据,如纽约出租车的csv数据能否正常发布?目前考虑可能是和字段类型等问题有关系
使用纽约出租车的csv数据可以正常注册,自己使用idesktop导出的csv就不行了。
这个可能是因为导出的csv中某些字段的类型不兼容导致的。您的csv的字段都是什么类型的能发一下看看吗
您可以保存为UDB发布试一下或者将meta文件(如果没有用到且不需要的话)删除掉再发布
...