技术 | IPFS网络是如何组建的?

回顾

IPFS – InterPlanetary File System 星际文件系统,是一个点对点的分布式文件存储系统,IPFS的愿景是构建一个全世界的分布式网络,用来替代传统中心化的服务器模式,所有的IPFS节点组成一个分布式网络,每个节点都可以存储文件,用户可以从IPFS构建的网络中以DHT(Distributed Hash Table,分布式哈希表) 的方式获取文件,从而实现了新一代的完全去中心化的网络,旨在取代现有的万维网。IPFS功能很丰富,如DHT组网,文件存储,Bitswap文件交换等功能。

文件存储和文件交换的技术详解可以通过之前的推文内容进行了解,今天我们来了解这个文件系统的“地基”——网络模块

IPFS网络初识

IPFS是一个开源项目,要达到它声称的构建一个全世界的分布式网络的目标,那么他必然要先解决不同国家、不同地区节点的连接问题。

首先,看一下IPFS网络部分配置,如下图所示,红框内部的Swarm是IPFS监听的网络地址,其中支持ipv4和ipv6协议,且默认支持QUIC协议。

技术 | IPFS网络是如何组建的?

*QUIC协议是由google最先提出的,目前已经提交给互联网工程任务小组(IETF),成为了正式的网络规范,相对于TCP来说QUIC网络传输协议的传输速度更快。

IPFS节点启动之后日志如下图所示,可以看到IPFS节点监听了以下网络地址,其中包括本地的、局域网、广域网的地址,最后还有/p2p-circuit地址。

技术 | IPFS网络是如何组建的?

问题来了,为什么需要监听这么多地址?

那是因为IPFS是一个开源项目,为了让全世界各地的节点连接起来则必须要解决各种网络情况下节点连接的问题。

监听本地地址,这样本地启动多个IPFS节点,它们之间可以以该地址进行连接,监听局域网地址,这样内网内启动多个IPFS节点,它们之间可以以该局域网地址相互连接,监听广域网地址,这样公网中启动多个IPFS节点,它们之间可以以该广域网地址进行连接。

通过上述方式就解决了大部分网络情况下的IPFS节点的网络连接问题:

2个节点都在同一主机:通过127.0.0.1地址连接

2个节点在同一个内网内:通过局域网地址连接

2个节点都有公网地址:通过公网地址连接

1个节点在内网,1个节点在公网:内网的节点通过在公网节点的公网地址连接

这里有一个问题,如果2个节点处于两个不同内网环境,由于存在NAT设备,NAT设备可能是对称型,对称型的NAT设备是没有办法穿透的,所以IPFS提供了relay的方式解决不同内网环境下节点的连接问题,上面提到的监听/p2p-circuit地址则是为了解决该问题,对于2个处于不同内网环境不能直接连接的节点,通过配置relay节点中转从而建立连接。

至此,IPFS解决了不同网络环境下的节点之间建立连接的问题,下面我们来看一下IPFS是如何构建大规模的分布式节点网络,将处于全世界的不同地区的各个节点连接起来的。

IPFS网络构建

IPFS网络构建的过程可以看作是两个阶段:

▲ Bootstrap阶段

IPFS节点在启动之前需要配置它的Bootstrap节点,配置文件中相关配置如下图所示,Bootstrap配置中配置了IPFS节点启动时需要连接的所有种子节点列表,这些节点地址列表信息是默认的,如果需要搭建IPFS私有网络可以修改成自己的种子节点列表(Qm开头的字符串是IPFS的节点id)。默认提供的种子节点都是具有公网地址的节点,IPFS节点启动的时候首先连接该种子节点,后续通过该种子节点去发现IPFS网络中更多的节点,从而进行连接,也就是DHT组网阶段。

技术 | IPFS网络是如何组建的?

▲ DHT组网阶段

IPFS节点连接种子节点成功以后则去通过DHT去发现其他节点,关于DHT的详解可以看这篇文章《Libp2p中DHT和Bitswap详解》

发现其他节点之后则尝试进行连接,连接成功的节点会加入到该节点的节点列表,以便后续可以直接与该节点通信,考虑到全世界的IPFS节点规模很大,不可能每个节点和其他节点保持长连接,所以对每个节点的连接数量做了限制,一般节点连接数量都在1千以下(IPFS配置文件中可以配置),对于没有连接的节点需要通信的话,可以通过DHT找到该节点地址,然后连接该节点进行通信,这样就构成了大规模的分布式节点网络。

我们可以通过一个示例展示上述过程。下图是一个常见的网络拓扑架构,有三个网络分别连接了Internet,IPFS node1部署在具有公网ip的服务器上,外部可以直接访问该节点,IPFS node2和IPFS node3都部署在对称型NAT设备后面,外部不能访问该节点。

技术 | IPFS网络是如何组建的?

在上面的网络架构下,处于公网的IPFS node1作为种子节点,种子节点最先启动,然后IPFS node2,node3,node4,node5的种子节点配置成IPFS node1,分别启动后首先连接IPFS node1,连接成功后通过DHT发现其他节点最后分别连接,对于IPFS node1,它连接的节点地址列表如下图所示,由于IPFS node2,node3,node4,node5均处于NAT设备后面,所以IPFS node1节点列表中这些节点的端口都是NAT设备映射后的端口(本地启动的IPFS端口默认是4001)。

对于IPFS node3来说,它的节点地址列表中,IPFS node1的地址是公网地址,由于IPFS node3和IPFS node2都处于NAT设备后面,不能直接连接,所以IPFS node2的地址是relay地址,IPFS node1节点作为relay节点,IPFS node3给IPFS node2发消息时通过IPFS node1转发,relay地址格式为:

Relay节点的地址/p2p-circuit/p2p/目标节点id

而IPFS node3的节点地址列表中,IPFS node4和IPFS node5的地址均为局域网地址,这样就完成了公网节点、处于NAT设备后的局域网节点的组网过程。

技术 | IPFS网络是如何组建的?

总结

以上就是IPFS网络的组建过程,为了方便描述只是以几个IPFS节点为例。

实际上IPFS的这种网络组建方式也能很好地支持超大规模节点的组网,当节点规模很大的时候(数万节点),设置数十个节点作为种子节点,通过DHT组网就能完成数万甚至更多节点的组网,此时每个节点的长连接数量保持在数百个,后续节点间通信时,如果还没有建立连接,可以通过DHT根据节点id查询该节点的地址信息(地址列表,包括所有公网和局域网地址),然后通过该地址连接该节点最后完成通信过程。

IPFS网络的这种组建方式也非常值得分布式系统学习和借鉴。

作者简介

姚文豪 来自数据网格实验室BitXMesh团队 数据平台架构师

本文链接:https://www.8btc.com/article/6592036

转载请注明文章出处

转载声明:本文 由CoinON抓取收录,观点仅代表作者本人,不代表CoinON资讯立场,CoinON不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。若以此作为投资依据,请自行承担全部责任。

声明:图文来源于网络,如有侵权请联系删除

风险提示:投资有风险,入市需谨慎。本资讯不作为投资理财建议。

(0)
打赏 微信扫一扫 微信扫一扫
上一篇 2021年2月19日 下午8:14
下一篇 2021年2月20日 上午1:14

相关推荐

技术 | IPFS网络是如何组建的?

星期五 2021-02-19 21:37:56

回顾

IPFS – InterPlanetary File System 星际文件系统,是一个点对点的分布式文件存储系统,IPFS的愿景是构建一个全世界的分布式网络,用来替代传统中心化的服务器模式,所有的IPFS节点组成一个分布式网络,每个节点都可以存储文件,用户可以从IPFS构建的网络中以DHT(Distributed Hash Table,分布式哈希表) 的方式获取文件,从而实现了新一代的完全去中心化的网络,旨在取代现有的万维网。IPFS功能很丰富,如DHT组网,文件存储,Bitswap文件交换等功能。

文件存储和文件交换的技术详解可以通过之前的推文内容进行了解,今天我们来了解这个文件系统的“地基”——网络模块

IPFS网络初识

IPFS是一个开源项目,要达到它声称的构建一个全世界的分布式网络的目标,那么他必然要先解决不同国家、不同地区节点的连接问题。

首先,看一下IPFS网络部分配置,如下图所示,红框内部的Swarm是IPFS监听的网络地址,其中支持ipv4和ipv6协议,且默认支持QUIC协议。

技术 | IPFS网络是如何组建的?

*QUIC协议是由google最先提出的,目前已经提交给互联网工程任务小组(IETF),成为了正式的网络规范,相对于TCP来说QUIC网络传输协议的传输速度更快。

IPFS节点启动之后日志如下图所示,可以看到IPFS节点监听了以下网络地址,其中包括本地的、局域网、广域网的地址,最后还有/p2p-circuit地址。

技术 | IPFS网络是如何组建的?

问题来了,为什么需要监听这么多地址?

那是因为IPFS是一个开源项目,为了让全世界各地的节点连接起来则必须要解决各种网络情况下节点连接的问题。

监听本地地址,这样本地启动多个IPFS节点,它们之间可以以该地址进行连接,监听局域网地址,这样内网内启动多个IPFS节点,它们之间可以以该局域网地址相互连接,监听广域网地址,这样公网中启动多个IPFS节点,它们之间可以以该广域网地址进行连接。

通过上述方式就解决了大部分网络情况下的IPFS节点的网络连接问题:

2个节点都在同一主机:通过127.0.0.1地址连接

2个节点在同一个内网内:通过局域网地址连接

2个节点都有公网地址:通过公网地址连接

1个节点在内网,1个节点在公网:内网的节点通过在公网节点的公网地址连接

这里有一个问题,如果2个节点处于两个不同内网环境,由于存在NAT设备,NAT设备可能是对称型,对称型的NAT设备是没有办法穿透的,所以IPFS提供了relay的方式解决不同内网环境下节点的连接问题,上面提到的监听/p2p-circuit地址则是为了解决该问题,对于2个处于不同内网环境不能直接连接的节点,通过配置relay节点中转从而建立连接。

至此,IPFS解决了不同网络环境下的节点之间建立连接的问题,下面我们来看一下IPFS是如何构建大规模的分布式节点网络,将处于全世界的不同地区的各个节点连接起来的。

IPFS网络构建

IPFS网络构建的过程可以看作是两个阶段:

▲ Bootstrap阶段

IPFS节点在启动之前需要配置它的Bootstrap节点,配置文件中相关配置如下图所示,Bootstrap配置中配置了IPFS节点启动时需要连接的所有种子节点列表,这些节点地址列表信息是默认的,如果需要搭建IPFS私有网络可以修改成自己的种子节点列表(Qm开头的字符串是IPFS的节点id)。默认提供的种子节点都是具有公网地址的节点,IPFS节点启动的时候首先连接该种子节点,后续通过该种子节点去发现IPFS网络中更多的节点,从而进行连接,也就是DHT组网阶段。

技术 | IPFS网络是如何组建的?

▲ DHT组网阶段

IPFS节点连接种子节点成功以后则去通过DHT去发现其他节点,关于DHT的详解可以看这篇文章《Libp2p中DHT和Bitswap详解》

发现其他节点之后则尝试进行连接,连接成功的节点会加入到该节点的节点列表,以便后续可以直接与该节点通信,考虑到全世界的IPFS节点规模很大,不可能每个节点和其他节点保持长连接,所以对每个节点的连接数量做了限制,一般节点连接数量都在1千以下(IPFS配置文件中可以配置),对于没有连接的节点需要通信的话,可以通过DHT找到该节点地址,然后连接该节点进行通信,这样就构成了大规模的分布式节点网络。

我们可以通过一个示例展示上述过程。下图是一个常见的网络拓扑架构,有三个网络分别连接了Internet,IPFS node1部署在具有公网ip的服务器上,外部可以直接访问该节点,IPFS node2和IPFS node3都部署在对称型NAT设备后面,外部不能访问该节点。

技术 | IPFS网络是如何组建的?

在上面的网络架构下,处于公网的IPFS node1作为种子节点,种子节点最先启动,然后IPFS node2,node3,node4,node5的种子节点配置成IPFS node1,分别启动后首先连接IPFS node1,连接成功后通过DHT发现其他节点最后分别连接,对于IPFS node1,它连接的节点地址列表如下图所示,由于IPFS node2,node3,node4,node5均处于NAT设备后面,所以IPFS node1节点列表中这些节点的端口都是NAT设备映射后的端口(本地启动的IPFS端口默认是4001)。

对于IPFS node3来说,它的节点地址列表中,IPFS node1的地址是公网地址,由于IPFS node3和IPFS node2都处于NAT设备后面,不能直接连接,所以IPFS node2的地址是relay地址,IPFS node1节点作为relay节点,IPFS node3给IPFS node2发消息时通过IPFS node1转发,relay地址格式为:

Relay节点的地址/p2p-circuit/p2p/目标节点id

而IPFS node3的节点地址列表中,IPFS node4和IPFS node5的地址均为局域网地址,这样就完成了公网节点、处于NAT设备后的局域网节点的组网过程。

技术 | IPFS网络是如何组建的?

总结

以上就是IPFS网络的组建过程,为了方便描述只是以几个IPFS节点为例。

实际上IPFS的这种网络组建方式也能很好地支持超大规模节点的组网,当节点规模很大的时候(数万节点),设置数十个节点作为种子节点,通过DHT组网就能完成数万甚至更多节点的组网,此时每个节点的长连接数量保持在数百个,后续节点间通信时,如果还没有建立连接,可以通过DHT根据节点id查询该节点的地址信息(地址列表,包括所有公网和局域网地址),然后通过该地址连接该节点最后完成通信过程。

IPFS网络的这种组建方式也非常值得分布式系统学习和借鉴。

作者简介

姚文豪 来自数据网格实验室BitXMesh团队 数据平台架构师

本文链接:https://www.8btc.com/article/6592036

转载请注明文章出处