
我想我找到了针对我的用例(一个Spark容器/主机OS)的解决方案:
--net host
与docker run
=>主机的eth0 一起使用在容器中可见- 设置
SPARK_PUBLIC_DNS
并SPARK_LOCAL_IP
为主机的IP,忽略docker0的172.xxx地址
Spark可以绑定到主机的ip,其他机器也可以与之通信,端口转发负责其余的工作。不需要DNS或任何复杂的配置,我还没有对此进行全面的测试,但是到目前为止还不错。
编辑:请注意,这些说明适用于Spark 1.x,仅在Spark
2.x才
SPARK_PUBLIC_DNS需要,我认为
SPARK_LOCAL_IP已弃用。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)