spark集群更换python安装环境-创新互联
由于需要用到很多第三方的包,比如numpy,pandas等,而生产环境又无法上网单个包安装太麻烦,因此考虑把之前安装的python的独立环境换成Anaconda的集成开发环境。以下是具体步骤:
1安装Anaconda3-5.0.1-Linux-x86_64.sh脚本
2给/opt/modules/anaconda3/bin/python3.6建立软链接
ln -s /opt/modules/anaconda3/bin/python /usr/bin/python3
3修改root环境变量
/root/.bashrc
/root/.bash_profile
修改hdfs用户环境变量,因为集群操作大多有hdfs用户完成。
su - hdfs
~/.bashrc
export PATH="/usr/bin:$PATH"
4修改pyspark2命令
vi /usr/bin/pyspark2
修改spark2-submit命令
vi /usr/bin/spark2-submit
修改PYSPARK_PYTHON这个变量
几个节点都要修改,之后spark更换到新的python,常用的包都有了。
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。
文章标题:spark集群更换python安装环境-创新互联
文章起源:http://myzitong.com/article/dposge.html