亚洲av成人无遮挡网站在线观看,少妇性bbb搡bbb爽爽爽,亚洲av日韩精品久久久久久,兔费看少妇性l交大片免费,无码少妇一区二区三区

  免費注冊 查看新帖 |

Chinaunix

  平臺 論壇 博客 文庫
最近訪問板塊 發(fā)新帖
查看: 56193 | 回復: 0
打印 上一主題 下一主題

[Spark] spark executor 上的task 不均衡問題。 [復制鏈接]

論壇徽章:
0
跳轉到指定樓層
1 [收藏(0)] [報告]
發(fā)表于 2018-03-07 22:58 |只看該作者 |倒序瀏覽
請問,我目前碰到問題是 spark executor 上的task任務數(shù)量不均衡。 導致,分配了很多executor ,實際干活的就那么幾個。
勞煩大伙幫忙分析一下這個問題。

如下圖,



分配很了多executor ,但是實際工作的executor主要集中在 p1\p2\p3 這三個機器。 這三個機器恰好是 datanode 節(jié)點。 Locality Level 都是 node_local

執(zhí)行的語句非常簡單就是  select count(*) from table .

如果把p1/p2/p3 上的 nodemanger 關掉。task 就分配的均衡了。 Locality Level 都是 Rack_local

我猜測是跟spark 優(yōu)先讀取本地數(shù)據(jù)有關 。但是,只是猜測,且沒有不知道如何調(diào)整。

請問各位碰過相似的問題,或是有類似的經(jīng)驗嗎?

謝謝。
您需要登錄后才可以回帖 登錄 | 注冊

本版積分規(guī)則 發(fā)表回復

  

北京盛拓優(yōu)訊信息技術有限公司. 版權所有 京ICP備16024965號-6 北京市公安局海淀分局網(wǎng)監(jiān)中心備案編號:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年舉報專區(qū)
中國互聯(lián)網(wǎng)協(xié)會會員  聯(lián)系我們:huangweiwei@itpub.net
感謝所有關心和支持過ChinaUnix的朋友們 轉載本站內(nèi)容請注明原作者名及出處

清除 Cookies - ChinaUnix - Archiver - WAP - TOP