虽然现在很多朋友对IPFS的基本概念有了一定的了解,也知道了一些实际的应用,但是对于IPFS的到底是如何的工作的还是一知半解,那我们今天就讲一讲IPFS的工作原理。
首先,IPFS根据文件的内容,通过加密算法计算出文件的独一无二的哈希值,这样就可以安全的将文件以最小的数据量进行表示。
第二,这个哈希值作为文件的地址,不会发生地址相同文件数据不同的情况。那么,IPFS在整个网络范围内就可以去掉重复的文件,并且为文件建立版本管理。
第三,文件的哈希值并不容易记住,那么便会造成传播困难,这时IPFS利用IPNS将哈希值映射为容易记的名字。
第四,每个节点除了存储自己需要的数据,还存储了一张哈希表,用来记录文件存储所在的位置,便于文件的查询下载。
第五,当查询文件的时,IPFS网络便会根据文件的全网唯一的哈希值进行查找。
我们可以这样理解:如果你在浏览器中你想访问一个文件,那么IPFS会问整个网络“有人有这个文件对应的哈希值吗?”在IPFS网络上就会有节点来返回文件,然后你就可以连接到相应的节点并下载它,最终的效果就是通过点到点的覆盖,获得高速的路由。
总的来说,IPFS实质上为我们解决的最重要内容是:数据存储。它能够极大的降低数据存储的成本,提升数据下载速度。IPFS的诞生是为了解决目前互联网所存在的弊端。
这也是我们需要IPFS的原因所在!
众所周知,互联网是建立在HTTP协议上的。HTTP协议是个伟大的发明,让我们的互联网得以快速发展,但是互联网发展到了今天,HTTP逐渐出来了不足:
1、HTTP的中心化是低效的,并且成本很高。
使用HTTP协议每次需要从中心化的服务器下载完整的文件,速度慢,效率低。如果改用P2P的方式下载,可以节省近60%的带宽,同时,P2P将文件分割为小的块,从多个服务器同时下载,速度非常快。
2、Web文件经常被删除。
http的页面平均生存周期大约只有100天,由于存储成本太高,Web文件经常被删除,无法永久保存。而IPFS提供了文件的历史版本回溯功能,就像git版本控制工具一样,可以很容易的查看文件的历史版本,数据可以得到永久保存。
3、中心化限制了web的成长。
我们现有的互联网是一个高度中心化的网络。在现有的http协议下,所有的数据都保存在互联网巨头的服务器上,这是高度中心化的。互联网巨头不但对我们的数据有绝对的控制权和解释权,各种各样的监管、封锁、监控,一定程度上也极大的限制了创新和发展。而分布式的IPFS可以克服这些web的缺点。
4、现在的互联网应用高度依赖互联网主干网
主干网受制于诸多因素的影响,战争,自然灾害,互联网管制,中心化服务器宕机等等,都可能是我们的互联网应用中断服务当然她突然掉线。IPFS可以是互联网应用极大的降低互联网应用对主干网的依赖。
而IPFS去中心化的分布式存储方式将能完全避免上述的问题,有可能成为历史发展的必然选择。
不用扫一扫,不用摇一摇,联系客服请搜索ipfssy,朋友圈尽知FIL
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。