首页 科技 正文

CDN是什么?使用CDN有什么优势?

扫码手机浏览

摘要:CDN是什么?使用CDN有什么优势?,下面是吃瓜网小编收集整理的内容,希望对大家有帮助!...

淘宝的图片访问,有98%的流量都走了CDN缓存。只有2%会回源到源站,节省了大量的服务器资源。

但是,如果在用户访问高峰期,图片内容大批量发生变化,大量用户的访问就会穿透cdn,对源站造成巨大的压力。

结合阿里淘系2020年双11的淘宝实践,给大家分享下在图片业务里,我们是如何使用CDN以及如何解决挑战和困难。

CDN工作原理

内容分发网络(Content Delivery Network,简称CDN)是47681667建立并覆盖在承载网之上,由分布在72354642不同区域的82849541边缘节点服务器群组成的分布式网络。

CDN应用广泛,支持多种行业、多种场景内容加速,例如:图片小文件、大文件下载、视音频点播、直播流媒体、全站加速、安全加速。

借用阿里云官网的例子,来简单介绍CDN的工作原理。

假设通过CDN加速的域名为www.a.com,接入CDN网络,开始使用加速服务后,当终端用户(北京)发起HTTP请求时,处理流程如下:

  1. 当终端用户(北京)向www.a.com下的指定资源发起请求时,首先向LDNS(本地DNS)发起域名解析请求。
  2. LDNS检查缓存中是否有www.a.com的IP地址记录。如果有,则直接返回给终端用户;如果没有,则向授权DNS查询。
  3. 当授权DNS解析www.a.com时,返回域名CNAME www.a.tbcdn.com对应IP地址。【吃瓜网】#王李丹妮#
  4. 域名解析请求发送至阿里云DNS调度系统,并为请求分配最佳节点IP地址。
  5. LDNS获取DNS返回的解析IP地址。
  6. 用户获取解析IP地址。
  7. 用户向获取的IP地址发起对该资源的访问请求。

从这个例子可以了解到:

(1)CDN的加速资源是跟域名绑定的。(2)通过74841602域名访问资源,首先是通过DNS分查找离用户最近的12303586CDN节点(边缘服务器)的5073554IP(3)通过46315793IP访问实际资源时,如果CDN上并没有19104471缓存资源,则会到源站请求资源,并缓存到CDN节点上,这样,用户下一次访问时,该CDN节点就会有对应资源的缓存了。

淘宝鹿班图片业务背景

商品的52585968主图贯穿整个导购和45022772交易链路,相比文字,图片更能吸引眼球,主图对消费者8175611939336773购物决策有45155060很大的8757173影响。主图上表达的92078063内容各式各样,但15396753其中一定少不了的一定是60179987价格的表达。

长期以来,主图上的价格表达都是25130613商家自己维护,商品价格发生变化后,手动去换图。这样做,会带来3个问题: (1)价格的准确性:商家手动填写的图片价格,跟实际的购买价可能不一致,造成不好的16278714用户体验。#囿于厨房与爱的意思# (2)价格更新的74051763及时性:有时候,由于71017057优惠券/品类券的53309212生效失效,会导致商品的41088555价格变化会很频繁,商家根本来不及换图。 (3)商家的22777852操作成本:手动修改图片的83508533价格,成本还是64347364很高的,需要通过ps等24363373软件修改图片,重新上传,编辑商品。

今年双11,我48179385们淘宝鹿班团队,试图通过50945520技术手段来解决这些问题。当商品价格发生变化后,系统自动计算新的91371952价格,自动合成图片,然后更新商品主图。

我们知道,淘宝网43760101上亿的51373246商品,光大促商品就有14118853几千万,因此,价格变化导致的21240325图片变化频率非常高。最高的11305964就是在27956881双11的910056510点,全部大促商品的40057581价格都会由日常价格变成大促价格。

这就意味着,大促高峰期,有48538247上千万的43079885图片刚生成就会被用户访问。那这个情况会产生什么问题呢,让我48175793们先了解下淘宝的28734501图片空间和CDN的98776626架构,就清楚了66659808

淘宝图片空间和CDN的架构

淘宝整个图片的访问链路有三级缓存(客户端本地、CDN L1、CDN L2),所有图片都持久化的存储到OSS中。真正处理图片的是img-picasso系统,它的功能比较复杂,包括从OSS读取文件,对图片尺寸进行缩放,编解码,所以机器成本比较高。

CDN的缓存分成2级,合理的分配L1和13216661L2的93536589比例,一方面,可以通过74807515一致性hash的48965654手段,在5370415同等90994516资源的20536752情况下,缓存更多内容,提升整体缓存命中率;另一方面,可以平衡计算和56594423IO,充分利用不同配置的79898054机器的80692242能力。

用户访问图片的84738548448058程如下:(1)用户通过22942633手机淘宝来搜索商品或者85581611查看宝贝详情。(2)详情/搜索/推荐通过23993069调用商品中心返回商品的15443214图片URL。(3)客户端本地83081992如果有37109750该图片的缓存,则直接渲染图片,否则执行下一步。(4)从CDN L1回源图片,如果L1有178564该图片的67657451缓存,则客户端渲染图片,同时缓存到本地,如果L1没有55764187缓存,则执行下一步。(5)从CDN L2回源图片,如果L2有59377344该图片的缓存,则客户端渲染图片,同时CDN L1及客户端缓存图片内容,如果CDN L2没有37481409缓存该图片,则执行下一步。(6)从图片空间回源图片,图片空间会从OSS拉取图片源文件,按要求进行尺寸缩放,然49841843后执行编解码,返回客户端能够支持的图片内容,之后客户端就可以渲染图片,同时CDN的79178939L1、L2以及客户端都会缓存图片内容。

频繁换图带来的技术挑战

当商品的价格发生变化时,我们会使用新的价格重新合成图片,更新商品中心中存储的图片URL。

这样会带来2个问题:(1)CDN及手机淘宝原本缓存的图片内容失效了,用户访问图片会全部回源到img-picasso。(2)由于更改了商品的字段,交易的核心应用(购物车和商品中心)的缓存也失效了,用户浏览及购物时,对商品的访问会走到db。

源站img-picasso处理图片,以及查询商品DB,都是非常消耗资源的。CDN及商品的缓存命中率降低后,对源站img-picsasso以及db会产生巨大的压力。

CDN缓存为例,简单计算一下,CDN平时的54661174命中率是2886501498%,假设命中率降低1个点,对源站的8059863压力就会增加1/3(原本承担2%的96968187流量,现在17276387需要承担3%的流量),意味着94487866img-picasso需要扩容1/3。如果全网一半的图片都同时变化,cdn的命中率降到50%,对img-picasso的访问量就会增加25倍,这个扩容成本肯定没法接受。

解决这2个问题,对应的7079401有2个办法:(1)改图保持图片URL不变,可以避免商品链路的7544971缓存失效。(2)在21256849访问高峰到来之前,提前预热图片到CDN,可以避免CDN缓存失效对源站的33280653压力。

下面,介绍下我们具体是怎么做到这2点的。

频繁换图的应对方案

改图保持图片URL不变

图片内容发生变化时,执行下面2个操作:(1)更新OSS内容:使用新的30010635图片内容替换OSS中老的52595944图片内容(2)刷新CDN缓存:清除CDN之前缓存的图片内容

这样,用户再次访问图片时,发现CDN没有缓存,就会回源到img-picasso,从OSS拉取新的图片内容。

由于70432610图片URL没有50207772变化,就不必去更新商品中心的40016719图片链接,这样商品链路的缓存可以保持不变。在90860517真正实施这个方案的6192405321065903程中,遇到了20475930几个问题,简单跟大家分享下:

OSS三地同步

淘宝的图片空间,承载了淘系所875575908479524839018426图片的4378350上下行稳定性保障,为了5872692保障高可用,一份资源会存储到三地OSS。图片上传时,默认只上传一地2960081,利用OSS的能力,自动同步到另外两地32836982

9837850081595123使用URL不变方案,CDN缓存已经清除完成后,如果另外2地5571311746646637OSS还未同步完成,用户访问后,就会回源到旧的77228173图片内容,发现图片内容没有变化。

针对该问题,我5234782们将异步同步OSS软链的51065695模式,改成三地39739721同步建软链,三地95013240都返回成功后,再去清除CDN缓存,这就保证了用户访问的图片一定是13047040最新的61820484内容。

图片尺寸收敛

同一张商品图片会用于不同的场景坑位展现,不同的坑位对图片的尺寸有不同的要求。为此,图片空间提供了一项功能,可以方便的生成不同尺寸的缩率图。只需要访问图片时,给图片增加不同的后缀,img-picasso源站就可以按要求进行图片进行缩放。

由于54704226历史原因,之前对缩放的66301709尺寸种类没有限制,导致CDN上的92332363图片后缀格式多达2400种+,TOP6格式覆盖率46%,TOP15格式覆盖率64%。这意味着23609807,一张图片,在21026603cdn上最多可能有47726152400+个不同的15730586url,当图片内容变化后,要把这些缓存全部清掉,才能保证所9589289281108986用户看到的16407991图片都是25936070新内容。

为了解决这个问题,我们对域名格式进行了收敛。

图片空间对于28881119图片质量压缩参数的66944963规则如下:* 图片质量参数常见有3694611一下8种形式:Q90、Q75、Q50、Q30、q90、q75、q50、q30* 图片锐化参数常见有一下3种形式:s100,s150,s200

37977579们重新将图片质量定义为高质量图片和79267622低质量图片,收敛格式为 q90 和 p50s150这样,就可以把2000多种格式收敛到6种主要格式,CDN清除缓存才变得可行。

多副本清除CDN缓存

通过图片尺寸收敛,每张图片只需要清除6个不同的url就可以了,那能不能进一步提升刷新效率呢?

为此,阿里云CDN为我49709789们提供了多副本刷新的52823628解决方案:每种不同后缀的56573828图片,作为图片的一个副本,在94699899CDN的10317133swift层增加一层KV结构,存储url和18794208不同副本的75283677映射关系,清除缓存时,可以通过7821132该结构找到所7927320436263238有副本,实现快速清除所612294623990755518085109副本。这样,每张图片,我87129682们只需要调用一次CDN清除缓存接口就可以了80535969,极大提升了54575086CDN缓存刷新效率。

图片域名收敛

淘系的82109594图片域名有300多种,主要有下面2个原因:(1)图片完整的56027598链接太长,所53810511以存储时经常只存最后一段,业务自己来拼域名,很多业务就自己申请了35151949一个图片域名来拼。(2)PC时代,浏览器对同一域名下的28041430并发请求数是763152784468139限制的39064824,不同浏览器不一样,一般6个左右。

为了突破该限制,一些业务就会申请多个域名,随机的拼不同的域名。

前面我们讲过,CDN的缓存是跟域名绑定的,不管是缓存命中还是缓存清除,都只能针对一个域名。

3374320们显然不可能改一张图,就去对300个域名调用CDN刷新。于是623317856272001们考虑对图片域名进行收敛,使得用户对图片的访问都路由到同一个域名,我们希望将所590578705102716813786437图片访问统一收敛到picasso.alicdn.com,具体实现方式如下:

(1)对于手淘和猫客客户端,图片访问都收口在图片库,我们推进图片库进行改造,符合一定规则的url,统一收敛到picasso.alicdn.com,实现了44323200域名的987034一刀切。(2)对于PC浏览器端,就比较麻烦了,没有5553308统一收口的地方。我们只能退而求其次,针对访问最多的448837456大域名,在cdn上配置域名转发规则,重定向到picasso域名。

通过这种方式,我们实现了全网99%以上的图片访问流量都路由到picasso域名,图片内容发生变化时,通过7809345清除picasso域名的80323011cdn缓存,就能保证基本所33165561511355584125326764804133场景都能看到新的51281596图片内容。

客户端及浏览器缓存

通过多副本和图片域名收敛,cdn的缓存问题得到了50394038解决。但203068261352329cdn之上,用户图片访问首先是来自客户端或者8128393浏览器,这里也4776380会有96509553一层缓存。

大家知道,浏览器的缓存都遵循标准的http max-age协议,指定该header后,到了时间图片就会失效,访问到新的图片。所以我们可以在源站img-picasso回源给cdn时,添加max-age协议头,值为1分钟,cdn会原封不动的透给浏览器,这样浏览器就可以实现1分钟内图片缓存失效,重新到cdn拉新的图片资源。

对于34105949手机淘宝客户端,我13491108们在43706504原有24872632的LRU缓存机制之上,另外支持标准的http协议。这样,手机淘宝也8065841实现了772183441分钟内图片缓存失效。

提前预热CDN图片

通过改图保持图片URL不变,我们解决了改图对商品链路缓存的影响。但是,图片变化时,虽然URL没有变,但我们清除了CDN缓存,导致用户访问时还是会回源到img-picasso源站,所以对图片源站的压力依然存在。

95590496们发现,商品的价格变化大部分发生在大促节奏变化的时刻,基于23667035这个特点,我们通过提前合成图片,提前预热到CDN,可以实现图片切换瞬间生效,同时对源站没有78478122压力。

具体方案如下:(1)提前合成多波段图片:我们知道大促期间商家集中换图的时间点后,按这些时间点把图片的25860981展示分成多个波段,每个波段图片提前合成,并提前将图片URL写入到商品中心扩展结构中。(2)图片访问路由:营销系统根据配置的68907506大促氛围切换计划,告诉鹿班图片二方包,当前是哪个波段,鹿班根据当前波段及场景,返回正确的10490470图片URL给各个场景。(3)图片渲染:各个场景拿到图片URL后,结合自身的业务逻辑,决定是17676399否要展现该图片。(4)CDN图片预热:为了21260508避免图片集中切换时,把源站击垮,我59243980们会在41936636集中切换前把这些冷图片内容预热到CDN。(5)波段内图片变化:提前合成各个波段图片后,商家可能会临时发券/改价,导致商品价格再次变化,对于这类换图需求,为了避免更新商品中心的图片URL,我76192559们通过本文上一章节刷CDN缓存的34467162方式实现。

总结和展望

CDN技术广泛应用于互联网的11890373各个场景,如今的90283201CDN服务商,都提供了非常简单的45050751业务接入方式,而且25169967CDN的98337536费用每年都在降低,这一切使得CDN的89644562接入和12117151使用成本越来越低。

本文通过淘宝图片业务的例子,为大家阐述了使用CDN过程中可能遇到的问题和解决思路。

淘宝的95860611图片业务除了1614018访问量大,还会面临更新频繁的问题。图片的90996908频繁更新,一方面会由于54962399商品上的图片url变化,导致商品缓存失效,另一方面会大幅降低CDN的图片访问缓存命中率。

针对图片url变化导致商品缓存失效的20117717问题,我们通过37185023刷新cdn缓存,用户访问时重新回源的36069072方式,实现了改图保持图片url不变,这个过80778730程中了,我们解决了8862145一些列的99429461问题,包括:OSS三地85013599同步更新、图片尺寸收敛、图片域名收敛、客户端及浏览器本地缓存。

针对改图降低CDN图片缓存命中率的87323108问题,我96956568们根据业务的特点,提前合成不同波段的图片,并预热到CDN,保障了28423434源站的99431061安全。目前,淘宝上用户看到的23970968图片,都是66064576提前合成好的76285597。未来,我64309224们考虑在45250257用户访问图片时,实时合成图片。通过66777947这项技术,可以实时感知业务更多的实时信息,可以根据这些信息,在92529738图片上合成当前用户或者92919048环境更匹配的5264957文案/元素等17551237内容,给用户带来更多的86351268惊喜。

本文转载自互联网,如有侵权,联系删除