我的新浪微博:http://weibo.com/freshairbrucewoo。
欢迎大家相互交流,共同提高技术。
二、Glusterfs的rpc模块实现
第一节、rpc服务器端实现原理及代码分析
1.rpc服务初始化
Rpc服务的初始化工作在函数rpcsvc_init中实现的,实现代码如下:
rpcsvc_t*rpcsvc_init(glusterfs_ctx_t*ctx,dict_t*options)
{
rpcsvc_t*svc=NULL;//所有rpc服务的全局状态描述对象
intret=-1,poolcount=0;
svc=GF_CALLOC(1,sizeof(*svc),gf_common_mt_rpcsvc_t);//分配内存资源
pthread_mutex_init(&svc->rpclock,NULL);//初始化锁
INIT_LIST_HEAD(&svc->authschemes);//初始化权限模式链表
INIT_LIST_HEAD(&svc->notify);//初始化通知回调函数链表
INIT_LIST_HEAD(&svc->listeners);//初始化监听链表
INIT_LIST_HEAD(&svc->programs);//初始化所有程序链表
ret=rpcsvc_init_options(svc,options);//初始化rpc服务的可选项信息
poolcount=RPCSVC_POOLCOUNT_MULT*svc->memfactor;//计算内存池大小
svc->rxpool=mem_pool_new(rpcsvc_request_t,poolcount);//分配内存池空间
ret=rpcsvc_auth_init(svc,options);//初始化权限信息
svc->options=options;//可选项保存
svc->ctx=ctx;//所属ctx
gluster_dump_prog.options=options;//让描述程序的对象保存选项信息
ret=rpcsvc_program_register(svc,&gluster_dump_prog);//注册rpc服务
returnsvc;//返回初始化后的所有rpc服务的全局描述对象
}
初始化的工作主要就是为描述一个所有rpc服务的全局对象设置一些初始化的值,这些信息一直保存到整个rpc服务结束,也就是glusterfs集群管理程序等主进程结束。
2.注册回调通知函数rpcsvc_register_notify
其实这个也是算初始化的一部分,只不过它只初始化一种功能,就是注册某些事件产生时的通知回调函数,通知的含义就是当这个事件发生了通知别的部分这里发生了事件,你应该根据这个事情做相应的处理,说简单一点就是我这里发生的事件可能对你也有影响,所以通知你一下以便你也好做相应的处理。主要代码如下:
wrapper=rpcsvc_notify_wrapper_alloc();//为通知函数的包装对象分配资源
svc->mydata=mydata;//设置属于哪一个xlator
wrapper->data=mydata;//通知函数的包装对象也保存属于哪一个xlator
wrapper->notify=notify;//保存通知的回调函数
pthread_mutex_lock(&svc->rpclock);//svc是全局对象,访问需要枷锁
{
list_add_tail(&wrapper->list,&svc->notify);//添加到svc的通知函数列表
svc->notify_count++;//通知函数个数加1
}
pthread_mutex_unlock(&svc->rpclock);//释放锁
3.创建监听器的函数rpcsvc_create_listeners
这个函数是重点中的重点,因为它的工作基本上把rpc服务建立起来了,就开始等待服务器的链接了,而且会加载底层的通信协议,主要包括rdma和tcp。所以这个函数做的工作会比较多,但是都很重要,下面详细分析这个过程,先看这个函数实现的主要代码:
rpcsvc_create_listener(svc,options,transport_name);
这个函数的实现大部分代码都是在解析底层的传输类型,然后针对每一个解析出来的类型分别创建监听程序,也就是上面那一句代码。继续看这个函数的实现,主要代码如下:
trans=rpcsvc_transport_create(svc,options,name);//根据传输名称创建传输描述对象
listener=rpcsvc_listener_alloc(svc,trans);//为监听对象分配资源
if(!listener&&trans){//如果分配监听资源失败并且传输链接已建立成功
rpc_transport_disconnect(trans);//断开传输链接
}
继续看传输对象的创建函数rpcsvc_transport_create,主要代码如下:
trans=rpc_transport_load(svc->ctx,options,name);//装载传输层的库并初始化
ret=rpc_transport_listen(trans);//建立传输层链接监听,执行装载库后的listen函数
ret=rpc_transport_register_notify(trans,rpcsvc_notify,svc);//注册通知函数
if((ret==-1)&&(trans)){
rpc_transport_disconnect(trans);//断开底层传输链接
trans=NULL;
}
上面调用的几个函数就rpc_transport_load还有点意思,不过rpc_transport_listen函数执行了装载后具体的协议(rdma和tcp)的listen函数来开始监听客户端的请求。先看看rpc_transport_load函数的主要实现代码:
trans=GF_CALLOC(1,sizeof(structrpc_transport),gf_common_mt_rpc_trans_t);
trans->name=gf_strdup(trans_name);//复制传输层的名字
trans->ctx=ctx;//传输所属的ctx
type=str;//传输类型
is_tcp=strcmp(type,"tcp");
is_unix=strcmp(type,"unix");
is_ibsdp=strcmp(type,"ib-sdp");
if((is_tcp==0)||(is_unix==0)||(is_ibsdp==0)){
if(is_unix==0)//如果是unix通信协议就设置unix协议族
ret=dict_set_str(options,"transport.address-family","unix");
if(is_ibsdp==0)//如果是ib-sdb通信协议就设置inet-sdp协议族
ret=dict_set_str(options,"transport.address-family","inet-sdp");
ret=dict_set_str(options,"transport-type","socket");//设置传输类型socket
}
}
ret=dict_get_str(options,"transport-type",&type);//设置传输类型选项
ret=gf_asprintf(&name,"%s/%s.so",RPC_TRANSPORTDIR,type);//格式化库路径字符串
handle=dlopen(name,RTLD_NOW|RTLD_GLOBAL);//打开库文件
trans->ops=dlsym(handle,"tops");//取ops函数组
trans->init=dlsym(handle,"init");//取初始化函数
trans->fini=dlsym(handle,"fini");//取析构函数
trans->reconfigure=dlsym(handle,"reconfigure");//取重新配置函数
vol_opt=GF_CALLOC(1,sizeof(volume_opt_list_t),gf_common_mt_volume_opt_list_t);
vol_opt->given_opt=dlsym(handle,"options");//取可选项数组
trans->options=options;
pthread_mutex_init(&trans->lock,NULL);//初始化锁
trans->xl=THIS;//设置属于哪一个xlator
ret=trans->init(trans);//执行初始化函数
由上面代码可以看出,先动态加载了库函数到对应的对象中去,最后执行了这个传输对象的初始化函数init,上面提到过注册函数也是执行这里加载的一个listen函数,不过它是在一个函数数组集合里面ops,所以就是使用trans->ops->listen()来调用。下面就分析一下rdma和tcp传输协议的这两个函数执行情况,先分析tcp的,因为tcp是比较熟悉的协议,tcp协议的init函数的主要代码如下:
socket_init(this);
这个函数的代码主要就是调用socket_init函数,而socket_init函数主要根据选项信息初始化一些socket对象描述的结构体,例如是否是非阻塞IO、链接超时等。继续看看tcp的listen函数(在tcp实现为socket_listen),主要代码如下:
//根据选项信息设置本地sockaddr结构信息(协议族、端口号等)
ret=socket_server_get_local_sockaddr(this,SA(&sockaddr),
&sockaddr_len,&sa_family);
pthread_mutex_lock(&priv->lock);//加锁
{
memcpy(&myinfo->sockaddr,&sockaddr,sockaddr_len);//复制sockaddr地址
myinfo->sockaddr_len=sockaddr_len;
priv->sock=socket(sa_family,SOCK_STREAM,0);//创建socket
//设置接收系统缓存区大小
if(setsockopt(priv->sock,SOL_SOCKET,SO_RCVBUF,
&priv->windowsize,sizeof(priv->windowsize))<0){
}
//设置发送数据系统缓冲区大小
if(setsockopt(priv->sock,SOL_SOCKET,SO_SNDBUF,
&priv->windowsize,sizeof(priv->windowsize))<0){
}
if(priv->nodelay){
ret=__socket_nodelay(priv->sock);//设置无延迟
}
ret=__socket_server_bind(this);//设置地址重用并且绑定端口
if(priv->backlog)
ret=listen(priv->sock,priv->backlog);//设置并发接收数量
else
ret=listen(priv->sock,10);//默认10个并发连接
rpc_transport_ref(this);//引用加1
//注册读取网络事件
priv->idx=event_register(ctx->event_pool,priv->sock,
socket_server_event_handler,this,1,0);
}
pthread_mutex_unlock(&priv->lock);//解锁
经过listen函数真个监听服务就建立起来了,客户端就可以发起请求了,客户端的请求就由上面注册的函数socket_server_event_handler处理,这个函数接收连接并且建立新的socket通信,并注册另外一个函数进行数据传输的处理,基本上所有的网络事件模型都是这个流程。下面继续看rdma(rdm协议和工作原理相关内容就看附近)传输有什么不同的地方,还是从它的init函数开始分析,主要代码如下:
rdma_private_t*priv=NULL;//定义一个rdma的私有数据描述对象
priv=GF_CALLOC(1,sizeof(*priv),gf_common_mt_rdma_private_t);//分配内存
this->private=priv;//私有数据保存到传输描述对象中
priv->sock=-1;//sock初始化为-1
if(rdma_init(this)){//初始化infiniBand设备
}
这段代码分配还内存资源以后就调用rdma_init初始化一些infiniBand相关内容,这些内容都是调用相应库函数实现的,而且infiniBand需要特殊网络设备才能支持(也需要相关的设备驱动程序)。当这些内容都初始化好了以后,后面的过程就和上面的完全tcp传输过程完全一样,就是先注册监听端口等待客户端的链接,当链接建立以后就注册读写事件并在相应的注册函数中处理相应的事件响应。
继续回到rpcsvc_transport_create函数,当它执行了rpc_transport_load和rpc_transport_listen函数以后,基本基于配置协议的(tcp和rdma)的监听程序都已初始化完毕并且开始监听,不过还有最后一步就是注册传输对象的通知回调函数,在函数rpc_transport_register_notify中实现,注册的回调函数是rpcsvc_notify(就是把函数的地址保存到传输对象的notify成员中,把rpc状态描述对象保存到mydata中),下面看看注册的回调函数rpcsvc_notify的主要实现代码,如下:
switch(event){
caseRPC_TRANSPORT_ACCEPT://新的客户端链接请求已经被接收
new_trans=data;
ret=rpcsvc_accept(svc,trans,new_trans);//执行接收后的处理工作
break;
caseRPC_TRANSPORT_DISCONNECT://链接被断开
ret=rpcsvc_handle_disconnect(svc,trans);
break;
caseRPC_TRANSPORT_MSG_RECEIVED://消息已经接收
msg=data;
ret=rpcsvc_handle_rpc_call(svc,trans,msg);
break;
caseRPC_TRANSPORT_MSG_SENT://消息已经发送
break;
caseRPC_TRANSPORT_CLEANUP://清理链接
listener=rpcsvc_get_listener(svc,-1,trans->listener);//取得listener
rpcsvc_program_notify(listener,RPCSVC_EVENT_TRANSPORT_DESTROY,trans);
break;
}
主要的功能就是根据事件类型做相应的处理工作,相应的事件处理又有可能根据是哪一个监听对象调用监听对象以前保存的rpc状态对象里面注册的notify函数。
到此为止整个rpc服务基本上已经建立完成,开始提供rpc服务,不过具体提供哪些程序的服务还需要最后一步,就是在已经建立的rpc服务上注册服务程序(就是提供客户端调用的程序集,每一个程序里面提供多个函数),不过这些程序的注册是在具体启动这个rpc服务的地方进行注册的,下面以glusterd程序启动rpc服务为例,看注册了哪些程序,注册程序代码如下:
ret=glusterd_program_register(this,rpc,&glusterd1_mop_prog);
ret=glusterd_program_register(this,rpc,&gd_svc_cli_prog);
ret=glusterd_program_register(this,rpc,&gd_svc_mgmt_prog);
ret=glusterd_program_register(this,rpc,&gluster_pmap_prog);
ret=glusterd_program_register(this,rpc,&gluster_handshake_prog);
Glusterd进程注册了5个程序集,那么客户端就可以请求这5个程序集里面的函数调用。一个完整的rpc服务就这样完全建立了。
总结:可以看出整个rpc服务的建立过程还是比较复杂的,下面用一个完整的图来解析整个rpc的建立过程,图如下:
分享到:
相关推荐
分布式,gluster,高性能,高扩展,文件系统
glusterfs分析报告,源码分析,网上下载下来的, 现在上传共享资源。
关于Glusterfs分布式文件系统的总结
该模块已添加到Ansible核心模块中,在这里寻找启示! 因此,该模块不再更新,并且已经过时了。 Ansible GlusterFS模块,用于管理GlusterFS卷。 样本剧本 --- - hosts: gluster-test remote_user: root tasks: -...
glusterfs 结构体系分析,挺好的文档。
一些重要的概念与进程前面提到了一些 glusterfs 的数据内存模型,还有一些 posxi 接口的实现,那么 glusterfs 当中其中还有一些其他比较重要
上一篇博客详细分析了 GlusterFS 之内存池的实现技术,今天我们看看GlusterFS 是怎么使用这个技术的。 第一步:分配和初始化:
最近一直在研究 glusterfs 的源代码,自己也在上面做了一些小的改动。... glusterfs实现内存池技术的源文件和头文件分别是mem-pool.c和mem-pool.h,首先看看头文件中内存 池对象结构体的定义如下:
glusterfs 管理手册 3.3.0 非常好用的分布式文件系统
1. Why do we need a distributed filesystem 2. GlusterFS concepts 3. Introduction to GlusterFS 4. Introduction to DHT - the distribution model 5. Scalability and reliability in GlusterFS 6. Features in...
glusterfs安装包-centos6.6
这篇文章主要是自己对英文版的GlusterFS系统管理手册进行翻译,并加入一些自己的理解!希望大家能一起学习一起进步!
GlusterFS学习笔记.docx
GlusterFS 101培训主要针对企业内训,同时面向IT主管、运维人员、测试人员、研发人员以及售前售后人员,提供GlusterFS相关基本原理、系统运维、软件测试、研发定制、解决方案等培训内容。
glusterfs-主函数工作流程, 2009年的一篇文档。包含6个模块的简要分析,是自己保存的一份文档,给需要的人下载。
Glusterfs 用户手册GlusterFs介绍Glusterfs 架构。
GlusterFS入门学习,了解分布式存储系统
Glusterfs5.0 Ubuntu 18.04离线安装包和安装说明,测试可用
GlusterFS分布式文件系统架构介绍,EHA算法介绍,5中分布式卷的详细介绍,性能测试对比
通过keepalived,实现多台GlusterFS高可用的存储配置方案。2个节点的GlusterFS无法避免脑裂问题,多台GlusterFS如何提供统一的挂载服务,通过该技术方案,完美的实现了VIP方式的高可用的GlusterFS存储方案。