最新一种服务提供方法、装置、服务器及计算机可读存储介质与流程

这里写的最新一种服务提供方法、装置、服务器及计算机可读存储介质与流程,可以跟着小编一起阅读下去


本申请涉及计算机
技术领域
,具体而言,涉及一种服务提供方法、装置、服务器及计算机可读存储介质。
背景技术
:深度学习技术在社会生产发展中起着越来越重要的作用,目前已经广泛应用于交通、金融、零售、互联网、制造业等行业。在技术上,涌现出了一批如tensorflow、pytorch、caffe、mxnet等深度学习框架和开发平台,越来越多的企业和个人采用这些框架开发深度学习算法训练模型并将模型应用于推理/预测任务。一般来说,企业和个人可以将模型发布成推理服务,既可以用于自身业务的推理/预测,也可发布为公有云服务为其客户服务。推力服务是指在深度学习框架上,通过指定模型运行推理/预测任务并将推理/预测的结果返回。通常,模型在某一深度学习框架上通过执行深度学习算法训练得出,训练出的模型可以导出模型文件,通过将该模型文件部署到对应的模型镜像(serving)上执行推理/预测任务,为用户提供推理服务。技术实现要素:有鉴于此,本申请实施例的目的在于提供一种服务提供方法、装置、服务器及计算机可读存储介质,能够提升将网络模型部署为服务实例的效率。根据本申请的一个方面,提供一种服务提供方法,所述方法包括:接收用户的服务创建请求,其中,所述服务创建请求中包含目标网络模型;根据所述服务创建请求以及模型参数配置信息,创建与所述目标网络模型对应的目标服务实例,其中,所述模型参数配置信息包含有网络模型对应的框架配置参数,所述框架配置参数为用于将对应框架类型的网络模型创建为服务实例。在一些实施例中,所述根据所述服务创建请求以及模型参数配置信息,创建与所述目标网络模型对应的目标服务实例的步骤,包括:获得所述目标网络模型所属的目标模型框架类型;根据所述目标模型框架类型,以及所述模型参数配置信息,获得与所述目标模型框架类型对应的目标模型镜像信息,其中,所述目标模型镜像信息表征与所述目标模型框架类型具有对应关系的配置参数;基于所述目标模型镜像信息处理所述目标网络模型,生成所述目标服务实例。在一些实施例中,所述服务创建请求中还包含有模型框架信息,所述获得所述目标网络模型所属的目标模型框架类型的步骤,包括:读取所述模型框架信息记录的模型框架类型,获得所述目标模型框架类型。在一些实施例中,所述目标网络模型中包含有目标记录信息,所述目标记录信息中记录有所述目标网络模型所属的模型框架类型;所述获得所述目标网络模型所属的目标模型框架类型的步骤,包括:读取所述目标记录信息,获得所述目标模型框架类型。在一些实施例中,所述服务创建请求中还包含有目标服务参数,所述目标服务参数表征用户所需服务处理能力;在所述基于所述目标模型镜像信息处理所述目标网络模型,生成所述目标服务实例的步骤之前,还包括:创建大小与所述服务创建请求匹配的容器空间;其中,所述容器空间为处理所述目标网络模型生成所述目标服务实例的空间。在一些实施例中,所述方法还包括:在所述目标服务实例为用户提供服务时,反馈当前服务参数,其中,所述当前服务参数表征所述目标服务实例当前实际的处理能力。在一些实施例中,所述方法还包括:接收用户的容器更新请求;响应所述容器更新请求,更新所述容器空间的大小。在一些实施例中,所述容器更新请求中包含有更新容器大小;所述响应所述容器更新请求,更新所述容器空间的大小的步骤,包括:判断所述更新容器大小是否大于容器空间阈值,其中,所述容器空间阈值为所述目标服务实例所需的最小容器空间的大小;若所述更新容器大小大于所述容器空间阈值,则以所述更新容器大小作为所述容器空间新的大小;若所述更新容器大小小于或等于所述容器空间阈值,则以所述容器空间阈值作为所述容器空间新的大小。在一些实施例中,所述服务创建请求中还包含有目标服务参数,所述目标服务参数表征用户所需服务处理能力;所述方法还包括:分配与所述服务创建请求匹配的目标处理设备,以使所述目标服务实例由所述目标处理设备为用户提供服务。在一些实施例中,所述方法还包括:接收用户的处理设备更新请求;响应所述处理设备更新请求,更新所述目标处理设备,以使所述目标服务实例由所述更新后的目标处理设备为用户提供服务。在一些实施例中,所述处理设备更新请求中包含有更新处理参数;所述响应所述处理设备更新请求,更新所述目标处理设备的步骤,包括:判断所述更新处理参数与处理能力阈值,其中,所述处理能力阈值为所述目标服务实例所需的最小处理能力;若所述更新处理参数大于所述处理能力阈值,则分配与所述更新处理参数相匹配的处理设备作为新的目标处理设备;若所述更新处理参数小于或等于所述处理能力阈值,则分配与所述处理能力阈值相匹配的处理设备作为新的目标处理设备。在一些实施例中,所述方法还包括:将基于所述目标服务实例生成的服务接口反馈给用户,以使用户基于所述服务接口使用所述目标服务实例提供的服务。在一些实施例中,所述方法还包括:向第一服务器发送第一请求,以使所述第一服务器根据所述第一请求反馈负载均衡实例;关联所述负载均衡实例及所述目标服务实例,以使所述目标服务实例在为用户提供服务时,由所述负载均衡实例提供负载均衡服务。在一些实施例中,所述负载均衡实例对应有虚拟ip地址,所述目标服务实例对应有服务实例ip地址;所述关联所述负载均衡实例及所述目标服务实例的步骤,包括:关联所述虚拟ip地址及所述服务实例ip地址。在一些实施例中,所述方法还包括:向第二服务器发送第二请求,以使所述第二服务器根据所述第二请求反馈目标域名;关联所述目标域名及所述目标服务实例,以使用户由所述目标域名进入到所述目标服务实例。在一些实施例中,所述方法还包括:向第三服务器发送第三请求,以使所述第三服务器根据所述第三请求反馈目标waf;关联所述目标waf及所述目标服务实例,以使所述目标服务实例在为用户提供服务时,由所述目标waf提供防火墙服务。结合本申请的另一方面,提供一种服务提供装置,所述装置包括:收发模块,用于接收用户的服务创建请求,其中,所述服务创建请求中包含目标网络模型;处理模块,用于根据所述服务创建请求以及模型参数配置信息,创建与所述目标网络模型对应的目标服务实例,其中,所述模型参数配置信息包含有网络模型对应的框架配置参数,所述框架配置参数为用于将对应框架类型的网络模型创建为服务实例。在一些实施例中,所述处理模块具体用于:获得所述目标网络模型所属的目标模型框架类型;根据所述目标模型框架类型,以及所述模型参数配置信息,获得与所述目标模型框架类型对应的目标模型镜像信息,其中,所述目标模型镜像信息表征与所述目标模型框架类型具有对应关系的配置参数;基于所述目标模型镜像信息处理所述目标网络模型,生成所述目标服务实例。根据本申请的另一方面,提供一种服务器,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当服务器运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行上述的服务提供方法的步骤。根据本申请的另一方面,提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述的服务提供方法的步骤。基于上述任一方面,本申请提供的一种服务提供方法、装置、服务器及计算机可读存储介质,通过根据用户的服务创建请求中包含的目标网络模型,并结合模型参数配置信息中与目标网络模型对应的框架配置参数,创建与目标网络模型对应的目标服务实例,以使服务器能够以该目标服务实例为用户提供服务,相比于现有技术,使用户在以目标网络模型生成服务实例时,根据预先保存的模型参数配置信息,自动配置目标网络模型所属的环境参数,而不再需要用户手动的配置,提升了将网络模型部署为服务实例的效率。附图说明为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。图1示出了本申请实施例所提供的一种服务器的一种示意性结构图;图2示出根据本申请实施例提供的一种服务提供方法的一种示意性流程图;图3为图2中s102的子步骤的一种示意性流程图;图4为图2中s102的子步骤的另一种示意性流程图;图5示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图;图6为图5中s105的子步骤的一种示意性流程图;图7示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图;图8为图7中s108的子步骤的一种示意性流程图;图9示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图;图10示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图;图11示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图;图12示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图;图13为本申请实施例所提供的一种服务提醒方法的一种可能的实现方式示意图;图14示出了本申请实施例所提供的一种服务提供装置的一种示意性结构图。图中:200-服务器;210-网络端口;220-处理器;230-通信总线;240-存储介质;250-i/o接口;300-服务提供装置;301-收发模块;302-处理模块。具体实施方式为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。为了使得本领域技术人员能够使用本申请内容,结合特定应用场景“利用深度学习网络模型提供推理服务”,给出以下实施方式。对于本领域技术人员来说,在不脱离本申请的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用场景。需要说明的是,本申请实施例中将会用到术语“包括”,用于指出其后所声明的特征的存在,但并不排除增加其它的特征。在本申请提出之前,用户在利用深度学习网络模型发布推理服务时,需要自行搭建私有云或者申请公有云主机,作为深度学习的推理环境,再于云主机上手动部署安装模型的环境参数,并配置相应的域名等,到发布成功一套推理服务,需要耗费较多时间。基于上述技术问题,本申请实施例提供一种服务提供方法、装置、服务器及计算机可读存储介质,其核心改进点在于:根据用户的服务创建请求中包含的目标网络模型,并结合模型参数配置信息中与目标网络模型对应的框架配置参数,创建与目标网络模型对应的目标服务实例,以使服务器能够以该目标服务实例为用户提供服务。下面通过一些可能的实现方式对本申请的技术方案进行说明。图1示出根据本申请的一些实施例的可以实现本申请思想的服务器200的示例性硬件和软件组件的示意图。例如,处理器220可以用于服务器200上,并且用于执行本申请中的功能。服务器200可以是通用计算机或特殊用途的计算机,两者都可以用于实现本申请的服务提供方法。本申请尽管仅示出了一个计算机,但是为了方便起见,可以在多个类似平台上以分布式方式实现本申请描述的功能,以均衡处理负载。例如,服务器200可以包括连接到网络的网络端口210、用于执行程序指令的一个或多个处理器220、通信总线230、和不同形式的存储介质240,例如,磁盘、rom、或ram,或其任意组合。示例性地,计算机平台还可以包括存储在rom、ram、或其他类型的非暂时性存储介质、或其任意组合中的程序指令。根据这些程序指令可以实现本申请的方法。服务器200还包括计算机与其他输入输出设备(例如键盘、显示屏)之间的输入/输出(input/output,i/o)接口250。为了便于说明,在服务器200中仅描述了一个处理器。然而,应当注意,本申请中的服务器200还可以包括多个处理器,因此本申请中描述的一个处理器执行的步骤也可以由多个处理器联合执行或单独执行。例如,若服务器200的处理器执行步骤a和步骤b,则应该理解,步骤a和步骤b也可以由两个不同的处理器共同执行或者在一个处理器中单独执行。例如,第一处理器执行步骤a,第二处理器执行步骤b,或者第一处理器和第二处理器共同执行步骤a和b。请参阅图2,图2示出根据本申请实施例提供的一种服务提供方法的一种示意性流程图,该服务提供方法包括以下步骤:s101,接收用户的服务创建请求。s102,根据服务创建请求以及模型参数配置信息,创建与目标网络模型对应的目标服务实例。结合图1,在上述利用深度学习网络模型提供推理服务的示例中,若用户欲发布推理服务,则向服务器200发送服务创建请求,并在服务创建请求中携带用于进行推理运算的网络模型。一般来说,虽然不同的深度学习网络模型,具有不同的模型参数,但对于基于相同深度学习框架的不同模型,一般具有相同的推理环境部署参数,比如,对于现有技术中常用的tensorflow、pytorch、caffe、apachemxnet、paddlepaddle等深度学习平台,对于相同不同的深度学习网络模型,若两者均是基于caffe进行部署,则两者具有相同的推理环境部署参数。因此,在服务器200一侧,服务器200本地存储有模型参数配置信息,该模型参数配置信息包含有网络模型对应的框架配置参数,该框架配置参数为用于将对应的框架类型的网络模型创建为服务实例。也就是说,在服务器200本地存储有网络模型框架的环境部署参数,以使服务器200能够基于模型参数配置信息,为每一网络模型快速匹配所需的环境部署参数。因此,在本申请实施例中,服务器200根据接收到的服务创建请求中包含的目标网络模型,以及服务器200本地的模型参数配置信息,直接创建与目标模型对应的目标服务实例,该目标服务实例用于为用户提供推理服务。基于上述设计,本申请实施例所提供的一种服务提供方法,通过根据用户的服务创建请求中包含的目标网络模型,并结合模型参数配置信息中与目标网络模型对应的框架配置参数,创建与目标网络模型对应的目标服务实例,以使服务器能够以该目标服务实例为用户提供服务,相比于现有技术,使用户在以目标网络模型生成服务实例时,根据预先保存的模型参数配置信息,自动配置目标网络模型所属的环境参数,而不再需要用户手动的配置,提升了将网络模型部署为服务实例的效率。可选地,在一种可能的实现方式中,为了实现s102,可以引入模型的镜像信息来实现。具体的,请参阅图3,图3为图2中s102的子步骤的一种示意性流程图,s102包括以下子步骤:s102-1,获得目标网络模型所属的目标模型框架类型。s102-3,根据目标模型框架类型,以及模型参数配置信息,获得与目标模型框架类型对应的目标模型镜像信息。s102-5,基于目标模型镜像信息处理目标网络模型,生成目标服务实例。继续以图1示例进行说明,服务器200存储的模型参数配置信息为网络模型对应的框架配置参数,也就是说,模型参数配置信息记录的是网络模型框架与参数的对应关系,比如,模型参数配置信息可以采用如下表1的形式:表1模型参数配置信息示意深度学习框架框架配置参数tensorflow模型镜像apytorch模型镜像bcaffe模型镜像capachemxnet模型镜像dpaddlepaddle模型镜像e因此,服务器200在根据服务创建请求以及模型参数配置信息,创建与模型网络模型对应的目标服务实例时,需要根据目标网络模型所属的目标模型框架类型,结合模型配置参数信息,对目标网络模型进行处理,生成目标服务实例。其中,在本申请实施例中,用户在请求创建推理服务时,可以选择将欲发布的推理服务所用的网络模型所属的模型框架类型,作为模型框架信息与服务创建请求一并发送给服务器200,以使服务器200在获得服务创建请求时,读取服务创建请求中包含的模型框架信息,获得目标网络模型所属的目标模型框架类型。上述策略由于需要用户在请求创建推理服务时,将欲发布的推理服务所用的网络模型所属的模型框架类型,与服务创建请求一并发送给服务器200,但由于人为的缘由等错误,有可能用户发送的模型框架类型与目标网络模型实际所属的模型框架类型匹配不上,导致由于配置参数错误,服务实例创建不成功。因此,一般来说,若服务器200接收的服务创建请求中包含有模型框架信息,服务器200读取该模型框架信息获取到目标模型框架类型,还需要校验目标网络模型实际所属的模型框架类型与目标模型框架类型是否相同。需要说明的是,深度学习网络模型在创建时,在所生成的数据包中包含有记录文件,该记录文件记录的信息为深度学习网络模型所属的模型框架类型。因此,服务器200在校验目标网络模型实际所属的模型框架类型与目标模型框架类型是否相同的,可以通过读取目标网络模型中包含的记录文件,获得目标网络模型实际所属的模型框架类型,进而校验该目标网络模型实际所属的模型框架类型与目标网络模型是否相同。但如上所述,由于目标网络模型中一般有记录文件,用于记录目标网络模型实际所属的模型框架类型。因此,可选地,在本申请实施例中,作为另一种可能的实现方式,目标网络模型中还包含有目标记录信息,该目标记录信息中记录有目标网络模型所属的模型框架类型,比如上述的记录文件。并且,服务器200通过读取该目标记录信息,获得目标模型框架信息,进而减少用户在欲创建服务实例时,需要输入的信息。作为一种可能的实现方式,在本申请实施例中,可以利用容器镜像技术,将每一模型框架类型所需的配置参数制作为一个模型镜像文件,记录在服务器200本地,比如在表1所示的模型参数配置信息示意中,分别将tensorflow、pytorch及caffe各自所需的配置参数制作为模型镜像a、模型镜像b及模型镜像c存储在服务器200本地。由此,当服务器200获得目标网络模型所属的目标模型框架类型,根据该目标模型框架类型以及如表1所示的模型参数配置信息,获得与目标模型框架类型对应的目标模型镜像信息,该目标模型镜像信息表征与目标模型框架类型具有对应关系的配置参数。比如,结合表1所示,若目标模型框架类型为caffe,则目标模型镜像信息为模型镜像c;若目标模型框架类型为tensorflow,则目标模型镜像信息为模型镜像a。服务器200根据所获得的目标模型镜像信息,比如上述根据目标模型框架类型为caffe,获得的模型镜像c,处理目标网络模型,生成目标服务实例。服务器200在为不同的用户提供服务时,一般来说,需要将不同用户生成的服务实例进行隔离,甚至为,对于同一用户利用不同网络模型生成的服务实例,也应当进行隔离,避免服务实例之间相互干扰。因此,可选地,请参阅图4,图4为图2中s102的子步骤的另一种示意性流程图,作为一种可能的实现方式,在执行s102-5之前,s102还包括以下子步骤:s102-4,创建大小与服务创建请求匹配的容器空间。在本申请实施例中,基于容器技术(container),根据服务创建请求中包含的目标网络模型,创建与服务创建请求匹配的容器空间,该容器空间为目标网络模型生成目标服务实例的空间,该容器空间的大小,与目标网络模型的数据量有关,一般来说,目标网络模型的数据量越大,则容器空间越大;目标网络模型的数据量越小,则容器空间越小。并且,可选地,作为一种可能的实现方式,服务创建请求中还包含有目标服务参数,该目标服务参数表征用户所需服务处理能力,比如,目标服务参数可以是qps(querypersecond,每秒查询率)或者是qos(qualityofservice,服务质量)中的任意一个或组合。容器空间的大小同样与qps或qos有关,若服务创建请求中包含有qps,qps越大,则容器空间越大,qps越小,则容器空间越小;或者,若服务创建请求中包含qos,qos越大,则容器空间越大,qos越小,则容器空间越小;又或者,若服务创建请求中包含qps和qos,则基于两个参数各自需求的容器空间中的较大者,作为所创建的容器空间的大小。由此,服务器200在基于目标模型镜像信息处理目标网络模型时,则在该容器空间中处理该目标网络模型,进而在该容器空间中生成服务实例,以使不同的服务实例位于不同的容器中,彼此之间相互隔离,避免不同服务实例之间的信息互通,形成干扰。值得说明的是,在上述s102的子步骤中,s102-4与s102-1及s102-3之间并没有相互的前后顺序,比如,s102的各个子步骤可以按照如图4所示的方式执行,在本申请实施例其他的一些实施方式中,s102-4还可以于s102-1之前执行,或者是在s102-1之后,s102-3之前执行,只要s102-4于s102-5之前执行即可,比如说,在本申请实施例其他的一些实施方式中,s102-4还可以与s102-1一并执行或者是s102-4与s102-3一并执行。如上所述,服务器200在创建与服务创建请求匹配的容器空间时,需要参考服务创建请求中包含的目标服务参数,也就是用户所需的服务处理能力,比如上述的qps或者qos,因此,可选地,请参阅图5,图5示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图,作为一种可能的实现方式,在本申请实施例中,该服务提供方法还可以包括以下步骤:s103,在目标服务实例为用户提供服务时,反馈当前服务参数。比如,若目标服务实例在为用户提供图片识别或者是推理服务,服务器200将表征目标服务实例当前实际的处理能力的当前服务参数反馈给用户,以使用户获悉自己请求创建的目标服务实例当前实际的处理能力。并且,用户所需的处理能力,与目标服务实例当前实际的处理能力一般是具有出入的,比如,用户在服务创建请求中输入的qps为1000次,但目标服务实例可能实际的qps只有500次,此时,容器空间的大小可能就会造成性能的浪费。因此,为了避免性能的浪费,可选地,请继续参阅图5,作为一种可能的实施方式,该服务提供方法还可以包括以下步骤:s104,接收用户的容器更新请求。s105,响应容器更新请求,更新容器空间的大小。在本申请实施例中,服务器200若接收到用户的容器更新请求,表征用户可能是基于当前业务的需要,需要更大的容器空间或者更小的容器空间,此时则响应用户的容器更新请求,更新容器空间的大小。其中,值得说明的是,由于目标网络模型的数据量的大小是固定的,所以,服务器200在更新容器空间的大小时,不能随意调整,应当至少满足目标服务实例所需的最小容器空间。因此,为了满足服务的正常运行,需要对容器空间进行工程约束,在本申请实施例中,服务器200存储有一容器空间阈值,该容器空间阈值为目标服务实例所需的最小容器空间的大小。并且,可选地,请参阅图6,图6为图5中s105的子步骤的一种示意性流程图,作为一种可能的实现方式,s105可以包括以下子步骤:s105-1,判断更新容器大小是否大于容器空间阈值;若是,执行s105-3;若否;执行s105-2。s105-2,以容器空间阈值作为容器空间新的大小。s105-3,以更新容器大小作为容器空间新的大小。服务器200在更新容器空间的大小时,根据容器更新请求中包含的更新容器大小,判断该更新容器大小是否大于容器空间阈值;若更新容器大小大于容器空间阈值,表征当前用户欲修改后的容器空间的大小能够满足目标服务实例的基本服务需求,此时可以以更新容器大小响应容器更新请求,调整容器空间的参数,将更新容器大小作为容器空间新的大小;反之,若更新容器大小小于或等于容器空间阈值,表征当前用户欲修改后的容器空间的大小可能不能满足目标服务实例的基础服务需求,此时则可以以容器空间阈值响应容器更新请求,调整容器空间的参数,将容器空间阈值作为容器空间新的大小。值得说明的是,更新容器大小的值,可以是用户直接输入的值,也可以根据用户输入的其他参数的计算得到的值,比如根据用户输入的新的qps计算得到的值。并且,在本申请实施例其他的一些实施方式中,若判定更新容器大小小于或等于容器空间阈值,还可以不响应该容器更新请求。并且,在本申请实施例其他的一些实施方式中,容器空间阈值可以是接收用户输入的值,也可以是服务器200根据目标网络模型的数据量所计算得到的值,只要服务器200存储有容器空间阈值即可,比如,容器空间阈值还可以是,服务器200根据目标网络模型所属的模型框架类型,以及预设的模型框架类型与空间阈值的对应关系,所获得的值。基于上述设计,本申请实施例所提供的一种服务提供方法,通过接收用户的容器更新请求,进而将根据容器更新请求中包含的更新容器大小,与容器空间阈值两者中的较大者,作为目标服务实例所在的容器空间的新的大小,使分配给服务实例的容器空间在确保服务实例正常为用户提供服务的前提下,大小可调,可动态分配容器资源。一般来说,将深度学习网络模型创建为服务实例后,需要为服务实例配置相应的处理设备,服务实例在为用户提供服务时,所有的数据均由处理设备执行。但一般来说,不同的处理设备,由于性能是不同的,比如cpu(centralprocessingunit,中央处理器)与gpu(graphicsprocessingunit,图形处理器)等常用的处理器,gpu的处理性能要强于cpu。因此,用户通常不考虑不同处理设备之间的性能差异,随机为服务实例部署处理设备。但是这种随机部署的方式,往往会导致服务实例所需的处理性能与被部署的处理设备所能提供的处理性能之间不匹配,例如,被用户部署给某一服务实例的处理设备,处理能力过低,无法满足服务实例的运算需求;或者,处理设备的处理能力过高,造成处理资源的浪费。因此,可选地,请参阅图7,图7示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图,作为一种可能的实现方式,在创建目标服务实例之后,该服务提供方法还包括以下步骤:s106,分配与服务创建请求匹配的目标处理设备。服务器200创建与目标网络模型对应的目标服务实例后,需要分配处理设备处理执行目标服务实例对应的数据,在本申请实施例中,根据服务创建请求,选择与服务创建请求所需处理能力相近的处理设备作为目标处理设备,以处理执行目标服务实例对应的数据。一般来说,目标处理设备的选取,与目标网络模型的数据量有关,目标网络模型的数据量越大,则所需处理能力越大,则可以选择处理能力较强的处理设备,比如采用gpu;而目标网络模型的数据量较小,则所需处理能力越小,则可以选择处理能力较低的处理设备,比如cpu。并且,可选地,作为一种可能的实现方式,服务创建请求中还包含有目标服务参数,该目标服务参数表征用户所需的服务处理能力,比如上述的qps和qos,目标处理设备的处理能力还与用户的目标服务参数有点,若服务创建请求中包含有qps,qps越大,则所需的服务处理能力越大;qps越小,则所需的服务处理能力越小;并且,所需的服务处理能力同样与qos有关,若qos越大,则所需的服务处理能力越大;若qos越小,则所需的服务处理能力越小。因此,在本申请实施例中,结合用户的服务创建请求,分配与服务创建请求匹配的处理设备作为目标处理设备,以使目标服务实例由该目标处理设备为用户提供服务。其中,在分配与服务创建请求匹配的目标处理设备时,作为一种可能的实现方式,根据服务创建请求中包含的目标网络模型数据量的大小,以及目标服务参数,对用户所需的处理能力进行评估,比如按照数据量所属区间段的不同,以及目标服务参数所处区间段的不同,进行综合评分,进而得到对用户所需的处理能力的最终评分值,再由该得到的最终评分值,确定出目标处理设备。并且,值得说明的是,若分配目标处理设备负责目标服务实例为用户提供服务时,则该目标处理设备不再分配给其他服务实例为用户提供服务,也就是说,对于不同的服务实例,各自所对应的处理设备不相同,进而确保不同服务实例间的相互隔离。并且,可选地,作为一种可能的实现方式,处理设备可选的范围至少包括cpu、gpu以及mlu(machinelearningunit,机器学习单元),比如,若服务器200评估用户所需处理能力较低,可以选用cpu作为目标处理设备;若服务器200评估用户所需处理能力较高,则可以选用cpu作为目标处理设备;若服务器200评估用户所需处理能力中等,则可以选用mlu作为目标处理设备。基于上述设计,本申请实施例所提供的一种服务提供方法,通过分配与服务创建请求相匹配的目标处理设备,以使目标服务实例由目标处理设备处理为用户提供服务,使服务实例所需的处理资源与服务实例实际所获得的处理资源相匹配,提升了处理资源的利用率。并且,可选地,作为一种可能的实现方式,目标服务实例在为用户提供服务时,目标处理设备还可以实际的处理能力反馈给用户,比如将实际的qps反馈给用户,以使用户明确当前目标处理设备在为用户提供服务时,实际所使用的处理能力。并且,可选地,作为一种可能的实现方式,如上所述,目标服务实例在为用户提供服务时,用户所需的处理能力与目标处理设备实际使用的处理能力可能是不同的,比如上述示例中,用户在服务创建请求中输入的qps为1000次,但目标服务实例可能实际的qps只有500次,此时,目标处理设备的处理能力则未被充分利用,造成了处理能力的浪费。因此,可选地,请继续参阅图7,作为一种可能的实现方式,该服务提供方法还包括以下步骤:s107,接收用户的处理设备更新请求。s108,响应处理设备更新请求,更新目标处理设备。在本申请实施例中,服务器200若接收到用户的处理设备更新请求,表征用户可能是基于当前业务的需要,需要更强的处理能力,或者是需要弱化当前处理设备的处理能力,此时则响应用户的处理设备更新请求,更新目标处理设备。其中,值得说明的是,服务器200在更新目标处理设备时,实际上是在更新为目标服务实例分配的处理能力,比如将使用gpu更新为使用cpu,则是在减小目标服务实例的处理能力;若是将使用mlu更新为使用gpu,则是在增加目标服务实例的处理能力。并且,值得说明的是,服务器200在为目标服务实例更新目标处理设备时,作为一种可能的实现方式,设置有约束条件,比如,连续两次更新的时间间隔大于时间阈值等等。并且,如上所述,由于目标网络模型的数据量的大小是固定的,所以,服务器200在更新目标处理设备时,不能随意调整,应当至少满足目标服务实例所需的最小处理能力。因此,在本申请实施例中,服务器200存储有一处理能力阈值,该处理能力阈值为目标服务实例所需的最小处理能力。并且,可选地,请参阅图8,图8为图7中s108的子步骤的一种示意性流程图,作为一种可能的实现方式,s108可以包括以下子步骤:s108-1,判断更新处理参数是否大于处理能力阈值;若为是,执行s108-3;若为否,执行s108-2。s108-2,分配与处理能力阈值相匹配的处理设备作为新的目标处理设备。s108-3,分配与更新处理参数相匹配的处理设备作为新的目标处理设备。服务器200在更新目标处理设备时,根据处理设备更新请求中包含的更新处理参数,判断该更新处理参数是否大于处理能力阈值,其中,该更细处理参数为用户欲调整处理能力后处理能力值;若更新处理参数大于处理能力阈值,表征当前用户欲修改后的处理能力值能够满足目标服务实例的基本服务需求,此时可以以更新处理参数响应容器更新请求,分配与更新处理参数相匹配的处理设备作为新的目标处理设备;反之,若更新处理参数小于或等于处理能力阈值,表征当前用户欲修改后的处理能力值可能不能满足目标服务实例的基础服务需求,此时则可以以处理能力阈值响应处理设备更新请求,分配与处理能力阈值相匹配的处理设备作为新的目标处理设备。比如,在一些可能的示例中,若目标服务实例的处理能力阈值表征的处理设备为mlu,而更新处理参数表征的处理设备为cpu,则可以将mlu作为新的目标处理设备;若目标服务实例的处理能力阈值表征的处理设备为cpu,而更新处理参数表征的处理设备为gpu,则可以将gpu作为新的目标处理设备。值得说明的是,更新处理参数的值,可以是用户直接输入的值,也可以根据用户输入的其他参数的计算得到的值,比如根据用户输入的新的qps计算得到的值。并且,在本申请实施例其他的一些实施方式中,若判定更新处理参数小于或等于处理能力阈值,还可以不响应该处理设备更新请求。并且,在本申请实施例其他的一些实施方式中,处理能力阈值可以是接收用户输入的值,也可以是服务器200根据目标网络模型的数据量所计算得到的值,只要服务器200存储有处理能力阈值即可,比如,处理能力阈值还可以是,服务器200根据目标网络模型所属的模型框架类型,以及预设的模型框架类型与所需处理能力的对应关系,所获得的值。并且,由于所需的容器空间大小与所需的处理能力大小均与qps有关,因此,在本申请实施例一些可能的实施方式中,s105-1与s108-1的触发条件可以是相同的,比如,在接收到用户输入的新的qps值时,均触发s105-1及s108-1。基于上述设计,本申请实施例所提供的一种服务提供方法,通过接收用户的处理设备更新请求,进而将根据处理设备更新请求中包含的更新处理参数,与处理能力阈值两者中的较大者,为目标服务实例分配新的目标处理设备,使分配给服务实例的处理设备在确定服务实例正常为用户提供服务的前提下,大小可调,动态分配处理资源。可选地,请参阅图9,图9示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图,作为一种可能的实现方式,在创建目标服务实例之后,该服务提供方法还包括以下步骤:s109,将基于目标服务实例生成的服务接口反馈给用户。在本申请实施例中,对于服务器200在创建完成目标服务实例之后,为该目标服务实例生成对应的服务接口,比如采用基于url(uniformresourcelocator,统一资源定位符)的方式生成的api接口(applicationprogramminginterface,应用程序编程接口),并将该服务接口反馈给用户,以使用户能够基于该服务接口使用目标服务实例提供的服务。可选地,请参阅图10,图10示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图,作为一种可能的实现方式,在创建目标服务实例之后,该服务提供方法还包括以下步骤:s110,向第一服务器发送第一请求。s111,关联负载均衡实例及目标服务实例。一般来说,服务实例中分配有多个实例,用于并发地为用户提供服务。因此,在本申请实施例中,对于创建完成的目标服务实例,向第一服务器发送第一请求,以使第一服务器根据第一请求反馈负载均衡实例。并且,对于第一服务器反馈的负载均衡实例,将该负载均衡实例与目标服务实例相关联,以使目标服务实例在为用户提供服务时,由负载均衡实例提供负载均衡服务,进而使目标服务实例中,不同的实例并发地为用户提供服务。可选地,第一服务器反馈的负载均衡实例中包含有虚拟ip地址(virtualipaddress,vip),并且,服务器200在创建目标服务实例时,为目标服务实例分配有服务实例ip地址。因此,作为一种可能的实现方式,将虚拟ip地址及服务实例ip地址关联,进而关联负载均衡实例及目标服务实例。可选地,请参阅图11,图11示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图,作为一种可能的实现方式,在创建目标服务实例之后,该服务提供方法还包括以下步骤:s112,向第二服务器发送第二请求。s113,关联目标域名及目标服务实例。在本申请实施例中,服务器200向第二服务器发送第二请求,比如域名服务器,以使第二服务器根据第二请求反馈目标域名。并且,对于第二服务器反馈的目标域名,将该目标域名与目标服务实例相关联,以使用于可以由目标域名进入到目标服务实例,使用目标服务实例提供的服务。可选地,请参阅图12,图12示出了本申请实施例所提供的一种服务提供方法的另一种示意性流程图,作为一种可能的实现方式,在创建目标服务实例之后,该服务提供方法还包括以下步骤:s114,向第三服务器发送第三请求。s115,关联目标waf及目标服务实例。本申请实施例中,对于已经创建完成的目标服务实例,服务器200向第三服务器发送第三请求,以使第三服务器根据第三请求反馈目标waf(webapplicationfirewall,网站应用级入侵防御系统)。并且,对于第三服务器反馈的目标waf,将该目标waf与目标服务实例相关联,以使目标服务实例在为用户提供服务时,由目标waf提供防火墙服务,确保用户的使用安全。下面给出本申请实施例的服务提供方法的一种可能的实现方式示意:请参阅图13,以利用深度学习网络模型为用户提供推理服务为例,异构硬件平台中存储有多个处理设备,且至少包含有cpu、gpu及mlu;用户将目标网络模型以及目标服务参数(以qps及qos为例)上传至服务器200,服务器200根据目标网络模型以及目标服务参数,选择大小相匹配的容器空间,并在服务器200存储的多个模型镜像信息中,确定出与目标网络模型所属的模型框架类型对应的目标模型镜像信息,进而在该容器空间中,根据目标模型镜像信息,处理目标网络模型,生成推理服务实例;并且,根据接收到的qps及qos,在异构硬件平台中分配与目标网络模型以及qps和qos相匹配的目标处理设备,比如,确定出mlu作为目标处理设备,用以分配给推理服务实例,以处理推理服务实例在为用户提供服务时的数据;并且,向第一服务器请求负载均衡实例,并关联推理服务实例,向第二服务器请求目标域名,并关联目标域名与推理服务实例,向第三服务器请求目标waf,并关联目标waf与推理服务实例,为推理服务实例提供waf安全防护。请参阅图14,图14示出了本申请实施例所提供的一种服务提供装置300的一种示意性结构图,该服务提供装置300包括收发模块301及处理模块302。收发模块301收用户的服务创建请求,其中,服务创建请求中包含目标网络模型。处理模块302据服务创建请求以及模型参数配置信息,创建与目标网络模型对应的目标服务实例,其中,模型参数配置信息包含有网络模型对应的框架配置参数,框架配置参数为用于将对应框架类型的网络模型创建为服务实例。可选地,作为一种可能的实现方式,处理模块302具体用于:获得目标网络模型所属的目标模型框架类型;根据目标模型框架类型,以及模型参数配置信息,获得与目标模型框架类型对应的目标模型镜像信息,其中,目标模型镜像信息表征与目标模型框架类型具有对应关系的配置参数;基于目标模型镜像信息处理目标网络模型,生成目标服务实例。可选地,作为一种可能的实现方式,处理模块302具体用于:读取模型框架信息记录的模型框架类型,获得目标模型框架类型。可选地,作为一种可能的实现方式,目标网络模型中包含有目标记录信息,目标记录信息中记录有目标网络模型所属的模型框架类型;处理模块302具体用于:读取目标记录信息,获得目标模型框架类型。可选地,作为一种可能的实现方式,服务创建请求中还包含有目标服务参数,目标服务参数表征用户所需服务处理能力;处理模块302还具体用于:创建大小与服务创建请求匹配的容器空间;其中,容器空间为处理目标网络模型生成目标服务实例的空间。可选地,作为一种可能的实现方式,收发模块301还用于:在目标服务实例为用户提供服务时,反馈当前服务参数,其中,当前服务参数表征目标服务实例当前实际的处理能力。可选地,作为一种可能的实现方式,收发模块301还用于,接收用户的容器更新请求;处理模块302还用于,响应容器更新请求,更新容器空间的大小。可选地,作为一种可能的实现方式,容器更新请求中包含有更新容器大小;处理模块302还具体用于:判断更新容器大小是否大于容器空间阈值,其中,容器空间阈值为目标服务实例所需的最小容器空间的大小;若更新容器大小大于容器空间阈值,则以更新容器大小作为容器空间新的大小;若更新容器大小小于或等于容器空间阈值,则以容器空间阈值作为容器空间新的大小。可选地,作为一种可能的实现方式,服务创建请求中还包含有目标服务参数,目标服务参数表征用户所需服务处理能力;处理模块302还用于,分配与服务创建请求匹配的目标处理设备,以使目标服务实例由目标处理设备为用户提供服务。可选地,作为一种可能的实现方式,收发模块301还用于,接收用户的处理设备更新请求;处理模块302还用于,响应处理设备更新请求,更新目标处理设备,以使目标服务实例由更新后的目标处理设备为用户提供服务。可选地,作为一种可能的实现方式,处理设备更新请求中包含有更新处理参数;处理模块302还具体用于:判断更新处理参数与处理能力阈值,其中,处理能力阈值为目标服务实例所需的最小处理能力;若更新处理参数大于处理能力阈值,则分配与更新处理参数相匹配的处理设备作为新的目标处理设备;若更新处理参数小于或等于处理能力阈值,则分配与处理能力阈值相匹配的处理设备作为新的目标处理设备。可选地,作为一种可能的实现方式,收发模块301还用于,将基于目标服务实例生成的服务接口反馈给用户,以使用户基于服务接口使用目标服务实例提供的服务。可选地,作为一种可能的实现方式,收发模块301还用于,向第一服务器发送第一请求,以使第一服务器根据第一请求反馈负载均衡实例;处理模块302还用于,关联负载均衡实例及目标服务实例,以使目标服务实例在为用户提供服务时,由负载均衡实例提供负载均衡服务。可选地,作为一种可能的实现方式,负载均衡实例对应有虚拟ip地址,目标服务实例对应有服务实例ip地址;处理模块302还具体用于:关联虚拟ip地址及服务实例ip地址。可选地,作为一种可能的实现方式,收发模块301还用于,向第二服务器发送第二请求,以使第二服务器根据第二请求反馈目标域名;处理模块302还用于,关联目标域名及目标服务实例,以使用户由目标域名进入到目标服务实例。可选地,作为一种可能的实现方式,收发模块301还用于,向第三服务器发送第三请求,以使第三服务器根据第三请求反馈目标waf;处理模块302还用于,关联目标waf及目标服务实例,以使目标服务实例在为用户提供服务时,由目标waf提供防火墙服务。上述模块可以经由有线连接或无线连接彼此连接或通信。有线连接可以包括金属线缆、光缆、混合线缆等,或其任意组合。无线连接可以包括通过lan、wan、蓝牙、zigbee、或nfc等形式的连接,或其任意组合。两个或更多个模块可以组合为单个模块,并且任何一个模块可以分成两个或更多个单元。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考方法实施例中的对应过程,本申请中不再赘述。在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。综上所述,本申请实施例所提供的一种服务提供方法、装置、服务器及计算机可读存储介质,通过根据用户的服务创建请求中包含的目标网络模型,并结合模型参数配置信息中与目标网络模型对应的框架配置参数,创建与目标网络模型对应的目标服务实例,以使服务器能够以该目标服务实例为用户提供服务,相比于现有技术,使用户在以目标网络模型生成服务实例时,根据预先保存的模型参数配置信息,自动配置目标网络模型所属的环境参数,而不再需要用户手动的配置,提升了将网络模型部署为服务实例的效率;还基于容器技术,使不同的服务实例在不同的容器中生成,彼此之间相互隔离,避免不同服务实例之间的信息互通,形成干扰;还通过接收用户的容器更新请求,进而将根据容器更新请求中包含的更新容器大小,与容器空间阈值两者中的较大者,作为目标服务实例所在的容器空间的新的大小,使分配给服务实例的容器空间在确保服务实例正常为用户提供服务的前提下,大小可调,可动态分配容器资源;还通过分配与服务创建请求相匹配的目标处理设备,以使目标服务实例由目标处理设备处理为用户提供服务,使服务实例所需的处理资源与服务实例实际所获得的处理资源相匹配,提升了处理资源的利用率;通过接收用户的处理设备更新请求,进而将根据处理设备更新请求中包含的更新处理参数,与处理能力阈值两者中的较大者,为目标服务实例分配新的目标处理设备,使分配给服务实例的处理设备在确定服务实例正常为用户提供服务的前提下,大小可调,动态分配处理资源。以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本
技术领域
的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。当前第1页1 2 3 
技术特征:

1.一种服务提供方法,其特征在于,所述方法包括:

接收用户的服务创建请求,其中,所述服务创建请求中包含目标网络模型;

根据所述服务创建请求以及模型参数配置信息,创建与所述目标网络模型对应的目标服务实例,其中,所述模型参数配置信息包含有网络模型对应的框架配置参数,所述框架配置参数为用于将对应框架类型的网络模型创建为服务实例。

2.根据权利要求1所述的服务提供方法,其特征在于,所述根据所述服务创建请求以及模型参数配置信息,创建与所述目标网络模型对应的目标服务实例的步骤,包括:

获得所述目标网络模型所属的目标模型框架类型;

根据所述目标模型框架类型,以及所述模型参数配置信息,获得与所述目标模型框架类型对应的目标模型镜像信息,其中,所述目标模型镜像信息表征与所述目标模型框架类型具有对应关系的配置参数;

基于所述目标模型镜像信息处理所述目标网络模型,生成所述目标服务实例。

3.根据权利要求2所述的服务提供方法,其特征在于,所述服务创建请求中还包含有模型框架信息,所述获得所述目标网络模型所属的目标模型框架类型的步骤,包括:

读取所述模型框架信息记录的模型框架类型,获得所述目标模型框架类型。

4.根据权利要求2所述的服务提供方法,其特征在于,所述目标网络模型中包含有目标记录信息,所述目标记录信息中记录有所述目标网络模型所属的模型框架类型;

所述获得所述目标网络模型所属的目标模型框架类型的步骤,包括:

读取所述目标记录信息,获得所述目标模型框架类型。

5.根据权利要求2所述的服务提供方法,其特征在于,所述服务创建请求中还包含有目标服务参数,所述目标服务参数表征用户所需服务处理能力;

在所述基于所述目标模型镜像信息处理所述目标网络模型,生成所述目标服务实例的步骤之前,还包括:

创建大小与所述服务创建请求匹配的容器空间;

其中,所述容器空间为处理所述目标网络模型生成所述目标服务实例的空间。

6.根据权利要求5所述的服务提供方法,其特征在于,所述方法还包括:

在所述目标服务实例为用户提供服务时,反馈当前服务参数,其中,所述当前服务参数表征所述目标服务实例当前实际的处理能力。

7.根据权利要求6所述的服务提供方法,其特征在于,所述方法还包括:

接收用户的容器更新请求;

响应所述容器更新请求,更新所述容器空间的大小。

8.根据权利要求7所述的服务提供方法,其特征在于,所述容器更新请求中包含有更新容器大小;

所述响应所述容器更新请求,更新所述容器空间的大小的步骤,包括:

判断所述更新容器大小是否大于容器空间阈值,其中,所述容器空间阈值为所述目标服务实例所需的最小容器空间的大小;

若所述更新容器大小大于所述容器空间阈值,则以所述更新容器大小作为所述容器空间新的大小;

若所述更新容器大小小于或等于所述容器空间阈值,则以所述容器空间阈值作为所述容器空间新的大小。

9.根据权利要求1所述的服务提供方法,其特征在于,所述服务创建请求中还包含有目标服务参数,所述目标服务参数表征用户所需服务处理能力;

所述方法还包括:

分配与所述服务创建请求匹配的目标处理设备,以使所述目标服务实例由所述目标处理设备为用户提供服务。

10.根据权利要求9所述的服务提供方法,其特征在于,所述方法还包括:

接收用户的处理设备更新请求;

响应所述处理设备更新请求,更新所述目标处理设备,以使所述目标服务实例由所述更新后的目标处理设备为用户提供服务。

11.根据权利要求10所述的服务提供方法,其特征在于,所述处理设备更新请求中包含有更新处理参数;

所述响应所述处理设备更新请求,更新所述目标处理设备的步骤,包括:

判断所述更新处理参数与处理能力阈值,其中,所述处理能力阈值为所述目标服务实例所需的最小处理能力;

若所述更新处理参数大于所述处理能力阈值,则分配与所述更新处理参数相匹配的处理设备作为新的目标处理设备;

若所述更新处理参数小于或等于所述处理能力阈值,则分配与所述处理能力阈值相匹配的处理设备作为新的目标处理设备。

12.根据权利要求1所述的服务提供方法,其特征在于,所述方法还包括:

将基于所述目标服务实例生成的服务接口反馈给用户,以使用户基于所述服务接口使用所述目标服务实例提供的服务。

13.根据权利要求1所述的服务提供方法,其特征在于,所述方法还包括:

向第一服务器发送第一请求,以使所述第一服务器根据所述第一请求反馈负载均衡实例;

关联所述负载均衡实例及所述目标服务实例,以使所述目标服务实例在为用户提供服务时,由所述负载均衡实例提供负载均衡服务。

14.根据权利要求13所述的服务提供方法,其特征在于,所述负载均衡实例对应有虚拟ip地址,所述目标服务实例对应有服务实例ip地址;

所述关联所述负载均衡实例及所述目标服务实例的步骤,包括:

关联所述虚拟ip地址及所述服务实例ip地址。

15.根据权利要求1所述的服务提供方法,其特征在于,所述方法还包括:

向第二服务器发送第二请求,以使所述第二服务器根据所述第二请求反馈目标域名;

关联所述目标域名及所述目标服务实例,以使用户由所述目标域名进入到所述目标服务实例。

16.根据权利要求1所述的服务提供方法,其特征在于,所述方法还包括:

向第三服务器发送第三请求,以使所述第三服务器根据所述第三请求反馈目标waf;

关联所述目标waf及所述目标服务实例,以使所述目标服务实例在为用户提供服务时,由所述目标waf提供防火墙服务。

17.一种服务提供装置,其特征在于,所述装置包括:

收发模块,用于接收用户的服务创建请求,其中,所述服务创建请求中包含目标网络模型;

处理模块,用于根据所述服务创建请求以及模型参数配置信息,创建与所述目标网络模型对应的目标服务实例,其中,所述模型参数配置信息包含有网络模型对应的框架配置参数,所述框架配置参数为用于将对应框架类型的网络模型创建为服务实例。

18.根据权利要求17所述的服务提供装置,其特征在于,所述处理模块具体用于:

获得所述目标网络模型所属的目标模型框架类型;

根据所述目标模型框架类型,以及所述模型参数配置信息,获得与所述目标模型框架类型对应的目标模型镜像信息,其中,所述目标模型镜像信息表征与所述目标模型框架类型具有对应关系的配置参数;

基于所述目标模型镜像信息处理所述目标网络模型,生成所述目标服务实例。

19.一种服务器,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当服务器运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行时执行如权利要求1至16任一所述的服务提供方法的步骤。

20.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至16任一所述的服务提供方法的步骤。

技术总结
本申请提供了一种服务提供方法、装置、服务器及计算机可读存储介质,其中,该方法包括:接收用户的服务创建请求,其中,服务创建请求中包含目标网络模型;根据服务创建请求以及模型参数配置信息,创建与目标网络模型对应的目标服务实例,其中,模型参数配置信息包含有网络模型对应的框架配置参数,框架配置参数为用于将对应框架类型的网络模型创建为服务实例。本申请实施例通过使用户在以目标网络模型生成服务实例时,根据预先保存的模型参数配置信息,自动配置目标网络模型所属的环境参数,而不再需要用户手动的配置,提升了将网络模型部署为服务实例的效率。

技术研发人员:孔建钢;王琤;杨江华;裴文谦;莫简豪;朱中涛
受保护的技术使用者:北京小桔科技有限公司
技术研发日:2018.12.18
技术公布日:2020.06.26

最新一种服务提供方法、装置、服务器及计算机可读存储介质与流程的相关内容如下: