澳门太阳所有网站 > 网站概况 > 用户在DataWorks上执行MapReduce作业的时候

原标题:用户在DataWorks上执行MapReduce作业的时候

浏览次数:112 时间:2019-09-18

原标题:通过简单瘦身,解决Dataworks 10M文件限制问题

摘要: 用户在DataWorks上执行MapReduce作业的时候,文件大于10M的JAR和资源文件不能上传到Dataworks,导致无法使用调度去定期执行MapReduce作业。 解决方案: jar -resources test_mr.

用户在DataWorks上执行MapReduce作业的时候,文件大于10M的JAR和资源文件不能上传到Dataworks,导致无法使用调度去定期执行MapReduce作业。

解决方案:

第一步:大于10M的resources通过MaxCompute CLI客户端上传,

客户端下载地址:

客户端配置AK、EndPoint:

add jar C:test_mrtest_mr.jar -f;//添加资源

第二步:目前通过MaxCompute CLI上传的资源,在Dataworks左侧资源列表是找不到的,只能通过list resources查看确认资源;

list resources;//查看资源

第三步:瘦身Jar,因为Dataworks执行MR作业的时候,一定要本地执行,所以保留个main就可以;

图片 1

通过上述方法,我们可以在Dataworks上跑大于10M的MR作业。

作者:隐林

​本文为云栖社区原创内容,未经允许不得转载。返回搜狐,查看更多

责任编辑:

本文由澳门太阳所有网站发布于网站概况,转载请注明出处:用户在DataWorks上执行MapReduce作业的时候

关键词:

上一篇:《爱情公寓5》将开拍

下一篇:预计全球移动应用市场收入将达921亿美元