在蜂巢外部表的最大列数(Maximum Number of Columns in Hive Exte

2019-06-24 03:39发布

我试图建立蜂巢在Amazon的EMR从DynamoDB表中提取数据,并转储它S3。 我跟着上的说明, 在这里 ,并与我们的大多数表的成功。 随着一个DynamoDB表,但是,我得到一个错误(如下图所示)。

问题的表有很多列(> 100),和切割映射到只有其中的一个子集允许脚本运行,所以我假定这是问题,但我无法找到任何文件解决这个问题。

是否有某种硬性限制上我可以定义的列数? 或者是有,我很容易被击中这里一些其他的限制? 有没有办法解决呢?


我得到看起来像错误:

FAILED: Error in metadata: javax.jdo.JDODataStoreException: Put request failed : INSERT INTO `TABLE_PARAMS` (`PARAM_VALUE`,`TBL_ID`,`PARAM_KEY`) VALUES (?,?,?)
NestedThrowables:
org.datanucleus.store.mapped.exceptions.MappedDatastoreException: INSERT INTO `TABLE_PARAMS` (`PARAM_VALUE`,`TBL_ID`,`PARAM_KEY`) VALUES (?,?,?)
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask

我试图运行脚本的样子:

CREATE EXTERNAL TABLE hive_WSOP_DEV_STATS_input (col1 string, col2 string...)
    STORED BY 'org.apache.hadoop.hive.dynamodb.DynamoDBStorageHandler'
    TBLPROPERTIES ( "dynamodb.table.name" = "DYNAMO_TABLE_NAME",
        "dynamodb.column.mapping" = "col1:col1,col2:col2...");

Answer 1:

我几年前碰到了类似的问题。 如果我没有记错的问题是,蜂房,它被写入到数据库中查询了一个上限文本的长度。 如果你看看调用堆栈,你也许可以找出是否该变量是可配置的,如不及时救治编辑代码。



文章来源: Maximum Number of Columns in Hive External Tables