国内docker源代码安装过程问题解决

由于国内有“中国墙”,在执行make build过程会出现下载不了的问题,主要是谷歌连接不上。(为啥go的东西要被墙呢)

如果能用VPN,则下面都不是问题。

问题1:RUN curl -sSL https://golang.org/dl/go${GO_VERSION}.src.tar.gz 连接不上

下载指定版本的的go.src.tar.gz,然后ADD进入即可。

下载网址:http://www.golangtc.com/download



问题2:RUN curl -sSL https://storage.googleapis.com/golang/go${GOFMT_VERSION}.$(go env GOOS)-$(go env GOARCH).tar.gz 连接不上

解决方法同上。
注意主要ADD gofmt即可。

问题3:package golang.org/x/tools/cmd/cover: unrecognized import path "golang.org/x/tools/cmd/cover"

使用github下载tools,然后ADD进容器,再使用go install安装依赖的包。

git clone https://github.com/golang/tools.git

#修改Dockerfile
#RUN go get golang.org/x/tools/cmd/cover
ADD tools /go/src/golang.org/x/tools
RUN go install golang.org/x/tools/cmd/cover


最后再执行make build 和 make binary。

本页内容版权归属为原作者,如有侵犯您的权益,请通知我们删除。
问题导读 1.HDFS HA与QJM解决了什么问题? 2.HDFS HA与QJM区别是什么? 3.在HA(两个namenode)架构下,如何访问hdfs文件? 【使用QJM构建HDFS HA架构(2.2+)】     本文主要介绍HDFS HA特性,以及如何使用QJM(Quorum Journal Manager)特性实现HDFS HA。 一、背景     HDFS集群中只有一个Namenode,这就会引入单点问题;即如果Namenode故障,那么这个集群将不可用,直到Namenode重启或者其他Name
学习DIP第64天 转载请标明本文出处: http://blog.csdn.net/tonyshengtan ,出于尊重文章作者的劳动,转载请标明出处!文章代码已托管,欢迎共同开发: https://github.com/Tony-Tan/DIPpro 开篇废话 背后有人,今天不说废话。。。。 YIQ NTSC电视系统指定的色彩空间,为了压缩RGB的传输带宽提高传输速度。 YIQ中Y代表亮度信号(Luminance),IQ作为附加信息,I表示相位(In-phase)色彩从橙色到青色,Q表示正交(Quadr

什么是MapReduce? - 2015-03-16 06:03:12

MapReduce:MapReduce是一种编程模型,用于大规模数据集(大于1TB)的并行运算。映射(Map),化简(Reduce)的概念和它们的主要思想都是从函数式编程语言中借鉴而来的。它极大地方便了编程人员-----即使在不了解分布式并行编程的情况下,也可以将自己的程序运行在分布式系统上。MapReduce在执行时先指定一个Map(映射)函数,把输入键值对映射成一组新的键值对,经过一定处理后交给Reduce,Reduce对相同key下的所有value进行处理后在输出键值对作为最终的结果。

面向AWS云服务的Web应用架构 - 2015-03-15 15:03:03

高可用和可扩展的web应用是复杂而昂贵的。密集的高峰时段和流量模式的剧烈波动导致昂贵的硬件利用率低下。Amazon 云服务为web 应用提供高可靠的,可扩展的,安全的高性能基础设施,同时保证了弹性,根据客户的流量变化而实时调整规模进而降低了成本。
学习DIP第39天 转载请标明本文出处:http://blog.csdn.net/tonyshengtan,欢迎大家转载,发现博客被某些论坛转载后,图像无法正常显示,无法正常表达本人观点,对此表示很不满意。 有些网站转载了我的博文,很开心的是自己写的东西被更多人看到了,但不开心的是这段话被去掉了,也没标明转载来源,虽然这并没有版权保护,但感觉还是不太好,出于尊重文章作者的劳动,转载请标明出处!!!! 文章代码已托管,欢迎共同开发: https://github.com/Tony-Tan/DIPpro 开篇
openstack创建虚拟机思维导图整理:
前言 最新的情况是国内BAT已经都上了spark,而且spark在hadoop上的应用,大有为大象插上翅膀的效果。个人估计在未来两到三年,spark大有代替hadoop的mapreduce的趋势。应该说spark的在使用上面的经济成本,性能优势,一站式解决能力,一定会使其大放异彩。 因为个人对spark很感兴趣,加上项目中需要使用它解决一些机器学习的问题,在网上搜集资料时发现,spark machine learning这块的资料确实太缺少了,所以决定写一spark machine learning的一系
现在需要求得一个数组的所有元素之和,之前感觉似乎不太可能,因为每个线程只处理一个元素,无法将所有元素联系起来,但是最近学习了一段代码可以实现,同时也对shared memory有了进一步的理解。 一、C++串行实现 串行实现的方法非常之简单,只要将所有元素依次相加就能够得到相应的结果,实际上我们注重的不是结果,而是运行的效率。那么代码如下: array_sum.cc: #includeiostream#includestdio.h#include "kmeans.h"using namespace std
学习DIP第37天 转载请标明本文出处:http://blog.csdn.net/tonyshengtan,欢迎大家转载,发现博客被某些论坛转载后,图像无法正常显示,无法正常表达本人观点,对此表示很不满意。 有些网站转载了我的博文,很开心的是自己写的东西被更多人看到了,但不开心的是这段话被去掉了,也没标明转载来源,虽然这并没有版权保护,但感觉还是不太好,出于尊重文章作者的劳动,转载请标明出处!!!! 文章代码已托管,欢迎共同开发: https://github.com/Tony-Tan/DIPpro 开篇

pig 使用tez引擎 OutOfMemoryError - 2015-03-14 10:03:02

tez版本:0.5.3 pig版本:0.14.0  解决办法: 将 tez.task.scale.memory.reserve-fraction 设置的大点。如下: set tez.task.scale.memory.reserve-fraction 0.7d ; 报错详情见下: cause TezChild exit.:java.lang.OutOfMemoryError: Java heap space         at org.apache.tez.runtime.library.common.