当前位置: 移动技术网 > 移动技术>移动开发>Android > Android深入浅出之Binder机制

Android深入浅出之Binder机制

2019年07月24日  | 移动技术网移动技术  | 我要评论
android深入浅出之binder机制 一 说明  android系统最常见也是初学者最难搞明白的就是binder了,很多很多的service就是通过bin

android深入浅出之binder机制

一 说明

 android系统最常见也是初学者最难搞明白的就是binder了,很多很多的service就是通过binder机制来和客户端通讯交互的。所以搞明白binder的话,在很大程度上就能理解程序运行的流程。

我们这里将以mediaservice的例子来分析binder的使用:

         servicemanager,这是android os的整个服务的管理程序

        mediaservice,这个程序里边注册了提供媒体播放的服务程序mediaplayerservice,我们最后只分析这个

        mediaplayerclient,这个是与mediaplayerservice交互的客户端程序

下面先讲讲mediaservice应用程序。

二 mediaservice的诞生

mediaservice是一个应用程序,虽然android搞了七七八八的java之类的东西,但是在本质上,它还是一个完整的linux操作系统,也还没有牛到什么应用程序都是java写。所以,ms(mediaservice)就是一个和普通的c++应用程序一样的东西。

mediaservice的源码文件在:framework\base\media\mediaserver\main_mediaserver.cpp中。让我们看看到底是个什么玩意儿!

int main(int argc, char** argv)

{

//ft,就这么简单??

//获得一个processstate实例

sp<processstate> proc(processstate::self());

//得到一个servicemanager对象

  sp<iservicemanager> sm = defaultservicemanager();

  mediaplayerservice::instantiate();//初始化mediaplayerservice服务

  processstate::self()->startthreadpool();//看名字,启动process的线程池?

  ipcthreadstate::self()->jointhreadpool();//将自己加入到刚才的线程池?

}

其中,我们只分析mediaplayerservice。

这么多疑问,看来我们只有一个个函数深入分析了。不过,这里先简单介绍下sp这个东西。

sp,究竟是smart pointer还是strong pointer呢?其实我后来发现不用太关注这个,就把它当做一个普通的指针看待,即sp<iservicemanager>======》iservicemanager*吧。sp是google搞出来的为了方便c/c++程序员管理指针的分配和释放的一套方法,类似java的什么weakreference之类的。我个人觉得,要是自己写程序的话,不用这个东西也成。

好了,以后的分析中,sp<xxx>就看成是xxx*就可以了。

2.1 processstate

第一个调用的函数是processstate::self(),然后赋值给了proc变量,程序运行完,proc会自动delete内部的内容,所以就自动释放了先前分配的资源。

processstate位置在framework\base\libs\binder\processstate.cpp

sp<processstate> processstate::self()

{

  if (gprocess != null) return gprocess;---->第一次进来肯定不走这儿

  automutex _l(gprocessmutex);--->锁保护

  if (gprocess == null) gprocess = new processstate;--->创建一个processstate对象

return gprocess;--->看见没,这里返回的是指针,但是函数返回的是sp<xxx>,所以

//把sp<xxx>看成是xxx*是可以的

}

再来看看processstate构造函数

//这个构造函数看来很重要

processstate::processstate()

  : mdriverfd(open_driver())----->android很多代码都是这么写的,稍不留神就没看见这里调用了一个很重要的函数

  , mvmstart(map_failed)//映射内存的起始地址

  , mmanagescontexts(false)

  , mbindercontextcheckfunc(null)

  , mbindercontextuserdata(null)

  , mthreadpoolstarted(false)

  , mthreadpoolseq(1)

{

if (mdriverfd >= 0) {

//bidner_vm_size定义为(1*1024*1024) - (4096 *2) 1m-8k

    mvmstart = mmap(0, binder_vm_size, prot_read, map_private | map_noreserve,

 mdriverfd, 0);//这个需要你自己去man mmap的用法了,不过大概意思就是

//将fd映射为内存,这样内存的memcpy等操作就相当于write/read(fd)了

  }

  ...

}

 
//最讨厌这种在构造list中添加函数的写法了,常常疏忽某个变量的初始化是一个函数调用的结果。

//open_driver,就是打开/dev/binder这个设备,这个是android在内核中搞的一个专门用于完成

//进程间通讯而设置的一个虚拟的设备。btw,说白了就是内核的提供的一个机制,这个和我们用socket加net_link方式和内核通讯是一个道理。

static int open_driver()

{

  int fd = open("/dev/binder", o_rdwr);//打开/dev/binder

  if (fd >= 0) {

   ....

    size_t maxthreads = 15;

    //通过ioctl方式告诉内核,这个fd支持最大线程数是15个。

    result = ioctl(fd, binder_set_max_threads, &maxthreads);  }

return fd;

好了,到这里process::self就分析完了,到底干什么了呢?

l         打开/dev/binder设备,这样的话就相当于和内核binder机制有了交互的通道

l         映射fd到内存,设备的fd传进去后,估计这块内存是和binder设备共享的

 

接下来,就到调用defaultservicemanager()地方了。

2.2 defaultservicemanager

defaultservicemanager位置在framework\base\libs\binder\iservicemanager.cpp中

sp<iservicemanager> defaultservicemanager()

{

  if (gdefaultservicemanager != null) return gdefaultservicemanager;

  //又是一个单例,设计模式中叫 singleton。

  {

    automutex _l(gdefaultservicemanagerlock);

    if (gdefaultservicemanager == null) {

//真正的gdefaultservicemanager是在这里创建的喔

      gdefaultservicemanager = interface_cast<iservicemanager>(

        processstate::self()->getcontextobject(null));

    }

  }

  return gdefaultservicemanager;

}

-----》

gdefaultservicemanager = interface_cast<iservicemanager>(

        processstate::self()->getcontextobject(null));

processstate::self,肯定返回的是刚才创建的gprocess,然后调用它的getcontextobject,注意,传进去的是null,即0

//回到processstate类,

sp<ibinder> processstate::getcontextobject(const sp<ibinder>& caller)

{

if (supportsprocesses()) {//该函数根据打开设备是否成功来判断是否支持process,

//在真机上肯定走这个

    return getstrongproxyforhandle(0);//注意,这里传入0

  }

}

----》进入到getstrongproxyforhandle,函数名字怪怪的,经常严重阻碍大脑运转

//注意这个参数的命名,handle。搞过windows的应该比较熟悉这个名字,这是对

//资源的一种标示,其实说白了就是某个数据结构,保存在数组中,然后handle是它在这个数组中的索引。--->就是这么一个玩意儿

sp<ibinder> processstate::getstrongproxyforhandle(int32_t handle)

{

  sp<ibinder> result;

  automutex _l(mlock);

handle_entry* e = lookuphandlelocked(handle);--》哈哈,果然,从数组中查找对应

索引的资源,lookuphandlelocked这个就不说了,内部会返回一个handle_entry

 下面是 handle_entry 的结构

/*

struct handle_entry {

        ibinder* binder;--->binder

        refbase::weakref_type* refs;-->不知道是什么,不影响.

      };

*/

  if (e != null) {

    ibinder* b = e->binder; -->第一次进来,肯定为空

    if (b == null || !e->refs->attemptincweak(this)) {

      b = new bpbinder(handle); --->看见了吧,创建了一个新的bpbinder

      e->binder = b;

      result = b;

    }....

  }

  return result; 返回刚才创建的bpbinder。

}

//到这里,是不是有点乱了?对,当人脑分析的函数调用太深的时候,就容易忘记。

//我们是从
gdefaultservicemanager = interface_cast<iservicemanager>(

        processstate::self()->getcontextobject(null));

//开始搞的,现在,这个函数调用将变成

gdefaultservicemanager = interface_cast<iservicemanager>(new bpbinder(0));

bpbinder又是个什么玩意儿?android名字起得太眼花缭乱了。

因为还没介绍binder机制的大架构,所以这里介绍bpbinder不合适,但是又讲到bpbinder了,不介绍binder架构似乎又说不清楚....,sigh!

恩,还是继续把层层深入的函数调用栈化繁为简吧,至少大脑还可以工作。先看看bpbinder的构造函数把。

2.3 bpbinder

bpbinder位置在framework\base\libs\binder\bpbinder.cpp中。

bpbinder::bpbinder(int32_t handle)

  : mhandle(handle) //注意,接上述内容,这里调用的时候传入的是0

  , malive(1)

  , mobitssent(0)

  , mobituaries(null)

{

  ipcthreadstate::self()->incweakhandle(handle);//ft,竟然到ipcthreadstate::self()

}

这里一块说说吧,ipcthreadstate::self估计怎么着又是一个singleton吧?

//该文件位置在framework\base\libs\binder\ipcthreadstate.cpp

ipcthreadstate* ipcthreadstate::self()

{

  if (ghavetls) {//第一次进来为false

restart:

    const pthread_key_t k = gtls;

//tls是thread local storage的意思,不懂得自己去google下它的作用吧。这里只需要

//知道这种空间每个线程有一个,而且线程间不共享这些空间,好处是?我就不用去搞什么

//同步了。在这个线程,我就用这个线程的东西,反正别的线程获取不到其他线程tls中的数据。===》这句话有漏洞,钻牛角尖的明白大概意思就可以了。

//从线程本地存储空间中获得保存在其中的ipcthreadstate对象

//这段代码写法很晦涩,看见没,只有pthread_getspecific,那么肯定有地方调用

// pthread_setspecific。

    ipcthreadstate* st = (ipcthreadstate*)pthread_getspecific(k);

    if (st) return st;

    return new ipcthreadstate;//new一个对象,

  }

  

  if (gshutdown) return null;

  

  pthread_mutex_lock(>lsmutex);

  if (!ghavetls) {

    if (pthread_key_create(>ls, threaddestructor) != 0) {

      pthread_mutex_unlock(>lsmutex);

      return null;

    }

    ghavetls = true;

  }

  pthread_mutex_unlock(>lsmutex);

goto restart; //我ft,其实goto没有我们说得那样卑鄙,汇编代码很多跳转语句的。

//关键是要用好。

}

//这里是构造函数,在构造函数里边pthread_setspecific

ipcthreadstate::ipcthreadstate()

  : mprocess(processstate::self()), mmythreadid(androidgettid())

{

  pthread_setspecific(gtls, this);

  clearcaller();

min.setdatacapacity(256);

//min,mout是两个parcel,干嘛用的啊?把它看成是命令的buffer吧。再深入解释,又会大脑停摆的。

  mout.setdatacapacity(256);

}

出来了,终于出来了....,恩,回到bpbinder那。

bpbinder::bpbinder(int32_t handle)

  : mhandle(handle) //注意,接上述内容,这里调用的时候传入的是0

  , malive(1)

  , mobitssent(0)

  , mobituaries(null)

{

......

ipcthreadstate::self()->incweakhandle(handle);

什么incweakhandle,不讲了..

}

喔,new bpbinder就算完了。到这里,我们创建了些什么呢?

l         processstate有了。

l         ipcthreadstate有了,而且是主线程的。

l         bpbinder有了,内部handle值为0

gdefaultservicemanager = interface_cast<iservicemanager>(new bpbinder(0));

终于回到原点了,大家是不是快疯掉了?

interface_cast,我第一次接触的时候,把它看做类似的static_cast一样的东西,然后死活也搞不明白 bpbinder*指针怎么能强转为iservicemanager*,花了n多时间查看bpbinder是否和iservicemanager继承还是咋的....。

终于,我用ctrl+鼠标(source insight)跟踪进入了interface_cast

iinterface.h位于framework/base/include/binder/iinterface.h

template<typename interface>

inline sp<interface> interface_cast(const sp<ibinder>& obj)

{

  return interface::asinterface(obj);

}

所以,上面等价于:

inline sp<iservicemanager> interface_cast(const sp<ibinder>& obj)

{

  return iservicemanager::asinterface(obj);

}

看来,只能跟到iservicemanager了。

iservicemanager.h---》framework/base/include/binder/iservicemanager.h

看看它是如何定义的:

2.4 iservicemanager

class iservicemanager : public iinterface

{

//servicemanager,字面上理解就是service管理类,管理什么?增加服务,查询服务等

//这里仅列出增加服务addservice函数

public:

  declare_meta_interface(servicemanager);

   virtual status_t  addservice( const string16& name,

                      const sp<ibinder>& service) = 0;

};

declare_meta_interface(servicemanager)??

怎么和mfc这么类似?微软的影响很大啊!知道mfc的,有delcare肯定有implement

果然,这两个宏declare_meta_interface和implement_meta_interface(interface, name)都在

刚才的iinterface.h中定义。我们先看看declare_meta_interface这个宏往iservicemanager加了什么?

下面是declare宏

#define declare_meta_interface(interface)                \

  static const android::string16 descriptor;             \

  static android::sp<i##interface> asinterface(            \

      const android::sp<android::ibinder>& obj);         \

  virtual const android::string16& getinterfacedescriptor() const;  \

  i##interface();                           \

  virtual ~i##interface();  

我们把它兑现到iservicemanager就是:

static const android::string16 descriptor; -->喔,增加一个描述字符串

static android::sp< iservicemanager > asinterface(const android::sp<android::ibinder>&

obj) ---》增加一个asinterface函数

virtual const android::string16& getinterfacedescriptor() const; ---》增加一个get函数

估计其返回值就是descriptor这个字符串

iservicemanager ();                           \

virtual ~iservicemanager();增加构造和虚析购函数...

那implement宏在哪定义的呢?

见iservicemanager.cpp。位于framework/base/libs/binder/iservicemanager.cpp

implement_meta_interface(servicemanager, "android.os.iservicemanager");

下面是这个宏的定义

#define implement_meta_interface(interface, name)            \

  const android::string16 i##interface::descriptor(name);       \

  const android::string16&                      \

      i##interface::getinterfacedescriptor() const {       \

    return i##interface::descriptor;                \

  }                                  \

  android::sp<i##interface> i##interface::asinterface(        \

      const android::sp<android::ibinder>& obj)          \

  {                                  \

    android::sp<i##interface> intr;                 \

    if (obj != null) {                       \

      intr = static_cast<i##interface*>(             \

        obj->querylocalinterface(                \

            i##interface::descriptor).get());        \

      if (intr == null) {                     \

        intr = new bp##interface(obj);             \

      }                              \

    }                                \

    return intr;                          \

  }                                  \

  i##interface::i##interface() { }                  \

i##interface::~i##interface() { }                  \

很麻烦吧?尤其是宏看着头疼。赶紧兑现下吧。

const

android::string16 iservicemanager::descriptor(“android.os.iservicemanager”);

const android::string16& iservicemanager::getinterfacedescriptor() const

 { return iservicemanager::descriptor;//返回上面那个android.os.iservicemanager

  }                                   android::sp<iservicemanager> iservicemanager::asinterface(

      const android::sp<android::ibinder>& obj)

  {

    android::sp<iservicemanager> intr;

    if (obj != null) {                       

      intr = static_cast<iservicemanager *>(             

        obj->querylocalinterface(iservicemanager::descriptor).get());       

      if (intr == null) {                     

        intr = new bpservicemanager(obj);             

      }                             

    }                                

    return intr;                          

  }                                 

  iservicemanager::iservicemanager () { }                  

  iservicemanager::~ iservicemanager() { }

 哇塞,asinterface是这么搞的啊,赶紧分析下吧,还是不知道interface_cast怎么把bpbinder*转成了iservicemanager

我们刚才解析过的interface_cast<iservicemanager>(new bpbinder(0)),

原来就是调用asinterface(new bpbinder(0))

android::sp<iservicemanager> iservicemanager::asinterface(

      const android::sp<android::ibinder>& obj)

  {

    android::sp<iservicemanager> intr;

    if (obj != null) {                       

      ....                   

        intr = new bpservicemanager(obj);

//神呐,终于看到和iservicemanager相关的东西了,看来

//实际返回的是bpservicemanager(new bpbinder(0));             

      }                             

    }                               

    return intr;                          

}       
                

bpservicemanager是个什么玩意儿?p是什么个意思?

2.5 bpservicemanager

终于可以讲解点架构上的东西了。p是proxy即代理的意思,bp就是binderproxy,bpservicemanager,就是sm的binder代理。既然是代理,那肯定希望对用户是透明的,那就是说头文件里边不会有这个bp的定义。是吗?

果然,bpservicemanager就在刚才的iservicemanager.cpp中定义。

class bpservicemanager : public bpinterface<iservicemanager>

//这种继承方式,表示同时继承bpinterface和iservicemanager,这样iservicemanger的

addservice必然在这个类中实现

{

public:

//注意构造函数参数的命名 impl,难道这里使用了bridge模式?真正完成操作的是impl对象?

//这里传入的impl就是new bpbinder(0)

  bpservicemanager(const sp<ibinder>& impl)

    : bpinterface<iservicemanager>(impl)

  {

  }

   virtual status_t addservice(const string16& name, const sp<ibinder>& service)

  {

    待会再说..

}

基类bpinterface的构造函数(经过兑现后)

//这里的参数又叫remote,唉,真是害人不浅啊。

inline bpinterface< iservicemanager >::bpinterface(const sp<ibinder>& remote)

  : bprefbase(remote)

{

}

bprefbase::bprefbase(const sp<ibinder>& o)

  : mremote(o.get()), mrefs(null), mstate(0)

//o.get(),这个是sp类的获取实际数据指针的一个方法,你只要知道

//它返回的是sp<xxxx>中xxx* 指针就行

{

//mremote就是刚才的bpbinder(0)

  ...

}

好了,到这里,我们知道了:

sp<iservicemanager> sm = defaultservicemanager(); 返回的实际是bpservicemanager,它的remote对象是bpbinder,传入的那个handle参数是0。

现在重新回到mediaservice。

int main(int argc, char** argv)

{

  sp<processstate> proc(processstate::self());

sp<iservicemanager> sm = defaultservicemanager();

//上面的讲解已经完了

mediaplayerservice::instantiate();//实例化mediaplayerservice

//看来这里有名堂!

 

  processstate::self()->startthreadpool();

  ipcthreadstate::self()->jointhreadpool();

}

到这里,我们把binder设备打开了,得到一个bpservicemanager对象,这表明我们可以和sm打交道了,但是好像没干什么有意义的事情吧?

2.6 mediaplayerservice

那下面我们看看后续又干了什么?以mediaplayerservice为例。

它位于framework\base\media\libmediaplayerservice\libmediaplayerservice.cpp

void mediaplayerservice::instantiate() {

defaultservicemanager()->addservice(

//传进去服务的名字,传进去new出来的对象

      string16("media.player"), new mediaplayerservice());

}

mediaplayerservice::mediaplayerservice()

{

  logv("mediaplayerservice created");//太简单了

  mnextconnid = 1;

}

defaultservicemanager返回的是刚才创建的bpservicemanager

调用它的addservice函数。

mediaplayerservice从bnmediaplayerservice派生

class mediaplayerservice : public bnmediaplayerservice

ft,mediaplayerservice从bnmediaplayerservice派生,bnxxx,bpxxx,快晕了。

bn 是binder native的含义,是和bp相对的,bp的p是proxy代理的意思,那么另一端一定有一个和代理打交道的东西,这个就是bn。

讲到这里会有点乱喔。先分析下,到目前为止都构造出来了什么。

l         bpservicemanager

l         bnmediaplayerservice

这两个东西不是相对的两端,从bnxxx就可以判断,bpservicemanager对应的应该是bnservicemanager,bnmediaplayerservice对应的应该是bpmediaplayerservice。

我们现在在哪里?对了,我们现在是创建了bnmediaplayerservice,想把它加入到系统的中去。

喔,明白了。我创建一个新的service—bnmediaplayerservice,想把它告诉servicemanager。

那我怎么和servicemanager通讯呢?恩,利用bpservicemanager。所以嘛,我调用了bpservicemanager的addservice函数!

为什么要搞个servicemanager来呢?这个和android机制有关系。所有service都需要加入到servicemanager来管理。同时也方便了client来查询系统存在哪些service,没看见我们传入了字符串吗?这样就可以通过human readable的字符串来查找service了。

---》感觉没说清楚...饶恕我吧。

2.7 addservice

addservice是调用的bpservicemanager的函数。前面略去没讲,现在我们看看。

virtual status_t addservice(const string16& name, const sp<ibinder>& service)

  {

    parcel data, reply;

//data是发送到bnservicemanager的命令包

//看见没?先把interface名字写进去,也就是什么android.os.iservicemanager

    data.writeinterfacetoken(iservicemanager::getinterfacedescriptor());

//再把新service的名字写进去 叫media.player

    data.writestring16(name);

//把新服务service—>就是mediaplayerservice写到命令中

    data.writestrongbinder(service);

//调用remote的transact函数

    status_t err = remote()->transact(add_service_transaction, data, &reply);

    return err == no_error ? reply.readint32() : err;

}

我的天,remote()返回的是什么?

remote(){ return mremote; }-->啊?找不到对应的实际对象了???

还记得我们刚才初始化时候说的:

“这里的参数又叫remote,唉,真是害人不浅啊“

原来,这里的mremote就是最初创建的bpbinder..

好吧,到那里去看看:

bpbinder的位置在framework\base\libs\binder\bpbinder.cpp

status_t bpbinder::transact(

  uint32_t code, const parcel& data, parcel* reply, uint32_t flags)

{

//又绕回去了,调用ipcthreadstate的transact。

//注意啊,这里的mhandle为0,code是add_service_transaction,data是命令包

//reply是回复包,flags=0

    status_t status = ipcthreadstate::self()->transact(

      mhandle, code, data, reply, flags);

    if (status == dead_object) malive = 0;

    return status;

  }

...

}

再看看ipcthreadstate的transact函数把

status_t ipcthreadstate::transact(int32_t handle,

                 uint32_t code, const parcel& data,

                 parcel* reply, uint32_t flags)

{

  status_t err = data.errorcheck();

 

  flags |= tf_accept_fds;

  

  if (err == no_error) {

    //调用writetransactiondata 发送数据

err = writetransactiondata(bc_transaction, flags, handle, code, data, null);

  }

  

   if ((flags & tf_one_way) == 0) {

    if (reply) {

      err = waitforresponse(reply);

    } else {

      parcel fakereply;

      err = waitforresponse(&fakereply);

    }

   ....等回复

    err = waitforresponse(null, null);

  ....  

  return err;

}

再进一步,瞧瞧这个...

status_t ipcthreadstate::writetransactiondata(int32_t cmd, uint32_t binderflags,

  int32_t handle, uint32_t code, const parcel& data, status_t* statusbuffer)

{

  binder_transaction_data tr;

 

  tr.target.handle = handle;

  tr.code = code;

  tr.flags = binderflags;

  

  const status_t err = data.errorcheck();

  if (err == no_error) {

    tr.data_size = data.ipcdatasize();

    tr.data.ptr.buffer = data.ipcdata();

    tr.offsets_size = data.ipcobjectscount()*sizeof(size_t);

    tr.data.ptr.offsets = data.ipcobjects();

  }

....

上面把命令数据封装成binder_transaction_data,然后

写到mout中,mout是命令的缓冲区,也是一个parcel

  mout.writeint32(cmd);

  mout.write(&tr, sizeof(tr));

//仅仅写到了parcel中,parcel好像没和/dev/binder设备有什么关联啊?

恩,那只能在另外一个地方写到binder设备中去了。难道是在?

  return no_error;

}

//说对了,就是在waitforresponse中

status_t ipcthreadstate::waitforresponse(parcel *reply, status_t *acquireresult)

{

  int32_t cmd;

  int32_t err;

 

while (1) {

//talkwithdriver,哈哈,应该是这里了

    if ((err=talkwithdriver()) < no_error) break;

    err = min.errorcheck();

    if (err < no_error) break;

    if (min.dataavail() == 0) continue;

    //看见没?这里开始操作min了,看来talkwithdriver中

//把mout发出去,然后从driver中读到数据放到min中了。

    cmd = min.readint32();

 

    switch (cmd) {

    case br_transaction_complete:

      if (!reply && !acquireresult) goto finish;

      break;

  .....

  return err;

}

status_t ipcthreadstate::talkwithdriver(bool doreceive)

{

binder_write_read bwr;

  //中间东西太复杂了,不就是把mout数据和min接收数据的处理后赋值给bwr吗?

  status_t err;

  do {

//用ioctl来读写

    if (ioctl(mprocess->mdriverfd, binder_write_read, &bwr) >= 0)

      err = no_error;

    else

      err = -errno;

 } while (err == -eintr);

//到这里,回复数据就在bwr中了,bmr接收回复数据的buffer就是min提供的

    if (bwr.read_consumed > 0) {

      min.setdatasize(bwr.read_consumed);

      min.setdataposition(0);

    }

return no_error;

}

好了,到这里,我们发送addservice的流程就彻底走完了。

bpservicemanager发送了一个addservice命令到bnservicemanager,然后收到回复。

先继续我们的main函数。

int main(int argc, char** argv)

{

  sp<processstate> proc(processstate::self());

  sp<iservicemanager> sm = defaultservicemanager();  

mediaplayerservice::instantiate();

---》该函数内部调用addservice,把mediaplayerservice信息 add到servicemanager中

  processstate::self()->startthreadpool();

  ipcthreadstate::self()->jointhreadpool();

}

这里有个容易搞晕的地方:

mediaplayerservice是一个bnmediaplayerservice,那么它是不是应该等着

bpmediaplayerservice来和他交互呢?但是我们没看见mediaplayerservice有打开binder设备的操作啊!

这个嘛,到底是继续addservice操作的另一端bnservicemanager还是先说

bnmediaplayerservice呢?

还是先说bnservicemanager吧。顺便把系统的binder架构说说。

2.8 bnservicemanager

上面说了,defaultservicemanager返回的是一个bpservicemanager,通过它可以把命令请求发送到binder设备,而且handle的值为0。那么,系统的另外一端肯定有个接收命令的,那又是谁呢?

很可惜啊,bnservicemanager不存在,但确实有一个程序完成了bnservicemanager的工作,那就是service.exe(如果在windows上一定有exe后缀,叫service的名字太多了,这里加exe就表明它是一个程序)

           位置在framework/base/cmds/servicemanger.c中。

int main(int argc, char **argv)

{

  struct binder_state *bs;

  void *svcmgr = binder_service_manager;

  bs = binder_open(128*1024);//应该是打开binder设备吧?

  binder_become_context_manager(bs) //成为manager

  svcmgr_handle = svcmgr;

  binder_loop(bs, svcmgr_handler);//处理bpservicemanager发过来的命令

}

看看binder_open是不是和我们猜得一样?

struct binder_state *binder_open(unsigned mapsize)

{

  struct binder_state *bs;

  bs = malloc(sizeof(*bs));

  ....

  bs->fd = open("/dev/binder", o_rdwr);//果然如此

 ....

  bs->mapsize = mapsize;

  bs->mapped = mmap(null, mapsize, prot_read, map_private, bs->fd, 0);

 }

再看看binder_become_context_manager

int binder_become_context_manager(struct binder_state *bs)

{

  return ioctl(bs->fd, binder_set_context_mgr, 0);//把自己设为manager

}

binder_loop 肯定是从binder设备中读请求,写回复的这么一个循环吧?

void binder_loop(struct binder_state *bs, binder_handler func)

{

  int res;

  struct binder_write_read bwr;

  readbuf[0] = bc_enter_looper;

  binder_write(bs, readbuf, sizeof(unsigned));

  for (;;) {//果然是循环

    bwr.read_size = sizeof(readbuf);

    bwr.read_consumed = 0;

    bwr.read_buffer = (unsigned) readbuf;

 

    res = ioctl(bs->fd, binder_write_read, &bwr);

   //哈哈,收到请求了,解析命令

    res = binder_parse(bs, 0, readbuf, bwr.read_consumed, func);

 }

 
这个...后面还要说吗??

恩,最后有一个类似handlemessage的地方处理各种各样的命令。这个就是

svcmgr_handler,就在servicemanager.c中

int svcmgr_handler(struct binder_state *bs,

          struct binder_txn *txn,

          struct binder_io *msg,

          struct binder_io *reply)

{

  struct svcinfo *si;

  uint16_t *s;

  unsigned len;

  void *ptr;

 

  s = bio_get_string16(msg, &len);

  switch(txn->code) {

  case svc_mgr_add_service:

    s = bio_get_string16(msg, &len);

    ptr = bio_get_ref(msg);

    if (do_add_service(bs, s, len, ptr, txn->sender_euid))

      return -1;

    break;

...

其中,do_add_service真正添加bnmediaservice信息

int do_add_service(struct binder_state *bs,

          uint16_t *s, unsigned len,

          void *ptr, unsigned uid)

{

  struct svcinfo *si;

  si = find_svc(s, len);s是一个list

   si = malloc(sizeof(*si) + (len + 1) * sizeof(uint16_t));

    si->ptr = ptr;

    si->len = len;

    memcpy(si->name, s, (len + 1) * sizeof(uint16_t));

    si->name[len] = '\0';

    si->death.func = svcinfo_death;

    si->death.ptr = si;

    si->next = svclist;

    svclist = si; //看见没,这个svclist是一个列表,保存了当前注册到servicemanager

中的信息

  }

  binder_acquire(bs, ptr);//这个吗。当这个service退出后,我希望系统通知我一下,好释放上面malloc出来的资源。大概就是干这个事情的。

  binder_link_to_death(bs, ptr, &si->death);

  return 0;

}

         喔,对于addservice来说,看来servicemanager把信息加入到自己维护的一个服务列表中了。

       2.9 servicemanager存在的意义

        为何需要一个这样的东西呢?

        原来,android系统中service信息都是先add到servicemanager中,由servicemanager来集中管理,这样就可以查询当前系统有哪些服务。而且,android系统中某个服务例如mediaplayerservice的客户端想要和mediaplayerservice通讯的话,必须先向servicemanager查询mediaplayerservice的信息,然后通过servicemanager返回的东西再来和mediaplayerservice交互。

         毕竟,要是mediaplayerservice身体不好,老是挂掉的话,客户的代码就麻烦了,就不知道后续新生的mediaplayerservice的信息了,所以只能这样:

l         mediaplayerservice向sm注册

l         mediaplayerclient查询当前注册在sm中的mediaplayerservice的信息

l         根据这个信息,mediaplayerclient和mediaplayerservice交互

另外,servicemanager的handle标示是0,所以只要往handle是0的服务发送消息了,最终都会被传递到servicemanager中去。

三 mediaservice的运行

上一节的知识,我们知道了:

l         defaultservicemanager得到了bpservicemanager,然后mediaplayerservice 实例化后,调用bpservicemanager的addservice函数

l         这个过程中,是service_manager收到addservice的请求,然后把对应信息放到自己保存的一个服务list中

到这儿,我们可看到,service_manager有一个binder_looper函数,专门等着从binder中接收请求。虽然service_manager没有从bnservicemanager中派生,但是它肯定完成了bnservicemanager的功能。

同样,我们创建了mediaplayerservice即bnmediaplayerservice,那它也应该:

l         打开binder设备

l         也搞一个looper循环,然后坐等请求

service,service,这个和网络编程中的监听socket的工作很像嘛!

好吧,既然mediaplayerservice的构造函数没有看到显示的打开binder设备,那么我们看看它的父类即bnxxx又到底干了些什么呢?

          3.1 mediaplayerservice打开binder

class mediaplayerservice : public bnmediaplayerservice

// mediaplayerservice从bnmediaplayerservice派生

//而bnmediaplayerservice从bninterface和imediaplayerservice同时派生

class bnmediaplayerservice: public bninterface<imediaplayerservice>

{

public:

  virtual status_t  ontransact( uint32_t code,

                  const parcel& data,

                  parcel* reply,

                  uint32_t flags = 0);

};

看起来,bninterface似乎更加和打开设备相关啊。

template<typename interface>

class bninterface : public interface, public bbinder

{

public:

  virtual sp<iinterface>   querylocalinterface(const string16& _descriptor);

  virtual const string16&   getinterfacedescriptor() const;

 

protected:

  virtual ibinder*      onasbinder();

};

兑现后变成

class bninterface : public imediaplayerservice, public bbinder

bbinder?bpbinder?是不是和bnxxx以及bpxxx对应的呢?如果是,为什么又叫bbinder呢?

bbinder::bbinder()

  : mextras(null)

{

//没有打开设备的地方啊?

}

完了?难道我们走错方向了吗?难道不是每个service都有对应的binder设备fd吗?

.......

回想下,我们的main_mediaservice程序,有哪里打开过binder吗?

int main(int argc, char** argv)

{

//对啊,我在processstate中不是打开过binder了吗?

 

  sp<processstate> proc(processstate::self());

  sp<iservicemanager> sm = defaultservicemanager();

mediaplayerservice::instantiate();  

 ......

3.2 looper 

啊?原来打开binder设备的地方是和进程相关的啊?一个进程打开一个就可以了。那么,我在哪里进行类似的消息循环looper操作呢?

...

//难道是下面两个?

processstate::self()->startthreadpool();

ipcthreadstate::self()->jointhreadpool();

看看startthreadpool吧

void processstate::startthreadpool()

{

 ...

  spawnpooledthread(true);

}

void processstate::spawnpooledthread(bool ismain)

{

  sp<thread> t = new poolthread(ismain);ismain是true

//创建线程池,然后run起来,和java的thread何其像也。

  t->run(buf);

 }

poolthread从thread类中派生,那么此时会产生一个线程吗?看看poolthread和thread的构造吧

poolthread::poolthread(bool ismain)

    : mismain(ismain)

  {

  }

thread::thread(bool cancalljava)//cancalljava默认值是true

  :  mcancalljava(cancalljava),

    mthread(thread_id_t(-1)),

    mlock("thread::mlock"),

    mstatus(no_error),

    mexitpending(false), mrunning(false)

{

}

 
喔,这个时候还没有创建线程呢。然后调用poolthread::run,实际调用了基类的run。

status_t thread::run(const char* name, int32_t priority, size_t stack)

{

 bool res;

  if (mcancalljava) {

    res = createthreadetc(_threadloop,//线程函数是_threadloop

        this, name, priority, stack, &mthread);

  }

//终于,在run函数中,创建线程了。从此

主线程执行

ipcthreadstate::self()->jointhreadpool();

新开的线程执行_threadloop

我们先看看_threadloop

int thread::_threadloop(void* user)

{

  thread* const self = static_cast<thread*>(user);

  sp<thread> strong(self->mholdself);

  wp<thread> weak(strong);

  self->mholdself.clear();

 

  do {

 ...

    if (result && !self->mexitpending) {

        result = self->threadloop();哇塞,调用自己的threadloop

      }

    }

我们是poolthread对象,所以调用poolthread的threadloop函数

virtual bool poolthread ::threadloop()

  {

//mismain为true。

//而且注意,这是一个新的线程,所以必然会创建一个

新的ipcthreadstate对象(记得线程本地存储吗?tls),然后   

ipcthreadstate::self()->jointhreadpool(mismain);

    return false;

  }

主线程和工作线程都调用了jointhreadpool,看看这个干嘛了!

void ipcthreadstate::jointhreadpool(bool ismain)

{

   mout.writeint32(ismain ? bc_enter_looper : bc_register_looper);

   status_t result;

  do {

    int32_t cmd;

     result = talkwithdriver();

     result = executecommand(cmd);

    }

    } while (result != -econnrefused && result != -ebadf);

 

  mout.writeint32(bc_exit_looper);

  talkwithdriver(false);

}

看到没?有loop了,但是好像是有两个线程都执行了这个啊!这里有两个消息循环?

下面看看executecommand

status_t ipcthreadstate::executecommand(int32_t cmd)

{

bbinder* obj;

  refbase::weakref_type* refs;

  status_t result = no_error;

case br_transaction:

    {

      binder_transaction_data tr;

      result = min.read(&tr, sizeof(tr));

//来了一个命令,解析成br_transaction,然后读取后续的信息

    parcel reply;

       if (tr.target.ptr) {

//这里用的是bbinder。

        sp<bbinder> b((bbinder*)tr.cookie);

        const status_t error = b->transact(tr.code, buffer, &reply, 0);

}

让我们看看bbinder的transact函数干嘛了

status_t bbinder::transact(

  uint32_t code, const parcel& data, parcel* reply, uint32_t flags)

{

就是调用自己的ontransact函数嘛   

err = ontransact(code, data, reply, flags);

  return err;

}

bnmediaplayerservice从bbinder派生,所以会调用到它的ontransact函数

终于水落石出了,让我们看看bnmediaplayerservcice的ontransact函数。

status_t bnmediaplayerservice::ontransact(

  uint32_t code, const parcel& data, parcel* reply, uint32_t flags)

{

// bnmediaplayerservice从bbinder和imediaplayerservice派生,所有imediaplayerservice

//看到下面的switch没?所有imediaplayerservice提供的函数都通过命令类型来区分

//

  switch(code) {

    case create_url: {

      check_interface(imediaplayerservice, data, reply);

      create是一个虚函数,由mediaplayerservice来实现!!

sp<imediaplayer> player = create(

          pid, client, url, numheaders > 0 ? &headers : null);

 

      reply->writestrongbinder(player->asbinder());

      return no_error;

    } break;

其实,到这里,我们就明白了。bnxxx的ontransact函数收取命令,然后派发到派生类的函数,由他们完成实际的工作。

说明:

这里有点特殊,startthreadpool和jointhreadpool完后确实有两个线程,主线程和工作线程,而且都在做消息循环。为什么要这么做呢?他们参数ismain都是true。不知道google搞什么。难道是怕一个线程工作量太多,所以搞两个线程来工作?这种解释应该也是合理的。

网上有人测试过把最后一句屏蔽掉,也能正常工作。但是难道主线程提出了,程序还能不退出吗?这个...管它的,反正知道有两个线程在那处理就行了。

四 mediaplayerclient

这节讲讲mediaplayerclient怎么和mediaplayerservice交互。

使用mediaplayerservice的时候,先要创建它的bpmediaplayerservice。我们看看一个例子

imediadeathnotifier::getmediaplayerservice()

{

    sp<iservicemanager> sm = defaultservicemanager();

    sp<ibinder> binder;

    do {

//向sm查询对应服务的信息,返回binder      

binder = sm->getservice(string16("media.player"));

      if (binder != 0) {

        break;

       }

       usleep(500000); // 0.5 s

    } while(true);

 

//通过interface_cast,将这个binder转化成bpmediaplayerservice

//注意,这个binder只是用来和binder设备通讯用的,实际

//上和imediaplayerservice的功能一点关系都没有。

//还记得我说的bridge模式吗?bpmediaplayerservice用这个binder和bnmediaplayerservice

//通讯。

  smediaplayerservice = interface_cast<imediaplayerservice>(binder);

  }

  return smediaplayerservice;

}

为什么反复强调这个bridge?其实也不一定是bridge模式,但是我真正想说明的是:

binder其实就是一个和binder设备打交道的接口,而上层imediaplayerservice只不过把它当做一个类似socket使用罢了。我以前经常把binder和上层类imediaplayerservice的功能混到一起去。

当然,你们不一定会犯这个错误。但是有一点请注意:

4.1 native层

刚才那个getmediaplayerservice代码是c++层的,但是整个使用的例子确实java->jni层的调用。如果我要写一个纯c++的程序该怎么办?

int main()

{

 getmediaplayerservice();直接调用这个函数能获得bpmediaplayerservice吗?

不能,为什么?因为我还没打开binder驱动呐!但是你在java应用程序里边却有google已经替你

封装好了。

所以,纯native层的代码,必须也得像下面这样处理:

sp<processstate> proc(processstate::self());//这个其实不是必须的,因为

//好多地方都需要这个,所以自动也会创建.

getmediaplayerservice();

还得起消息循环呐,否则如果bn那边有消息通知你,你怎么接受得到呢?

processstate::self()->startthreadpool();

//至于主线程是否也需要调用消息循环,就看个人而定了。不过一般是等着接收其他来源的消息,例如socket发来的命令,然后控制mediaplayerservice就可以了。

}

五 实现自己的service

好了,我们学习了这么多binder的东西,那么想要实现一个自己的service该咋办呢?

如果是纯c++程序的话,肯定得类似main_mediaservice那样干了。

int main()

{

 sp<processstate> proc(processstate::self());

sp<iservicemanager> sm = defaultservicemanager();

sm->addservice(“service.name”,new xxxservice());

processstate::self()->startthreadpool();

ipcthreadstate::self()->jointhreadpool();

}

看看xxxservice怎么定义呢?

我们需要一个bn,需要一个bp,而且bp不用暴露出来。那么就在bnxxx.cpp中一起实现好了。

另外,xxxservice提供自己的功能,例如getxxx调用

5.1 定义xxx接口

xxx接口是和xxx服务相关的,例如提供getxxx,setxxx函数,和应用逻辑相关。

需要从iinterface派生

class ixxx: public iinterface

{

public:

declare_meta_interface(xxx);申明宏

virtual getxxx() = 0;

virtual setxxx() = 0;

}这是一个接口。

5.2 定义bnxxx和bpxxx

为了把ixxx加入到binder结构,需要定义bnxxx和对客户端透明的bpxxx。

其中bnxxx是需要有头文件的。bnxxx只不过是把ixxx接口加入到binder架构中来,而不参与实际的getxxx和setxxx应用层逻辑。

这个bnxxx定义可以和上面的ixxx定义放在一块。分开也行。

class bnxxx: public bninterface<ixxx>

{

public:

  virtual status_t  ontransact( uint32_t code,

                  const parcel& data,

                  parcel* reply,

                  uint32_t flags = 0);

//由于ixxx是个纯虚类,而bnxxx只实现了ontransact函数,所以bnxxx依然是

一个纯虚类

};

有了declare,那我们在某个cpp中implemnt它吧。那就在ixxx.cpp中吧。

implement_meta_interface(xxx, "android.xxx.ixxx");//implement宏

 

status_t bnxxx::ontransact(

  uint32_t code, const parcel& data, parcel* reply, uint32_t flags)

{

  switch(code) {

    case get_xxx: {

      check_interface(ixxx, data, reply);

      读请求参数

      调用虚函数getxxx()

      return no_error;

    } break; //set_xxx类似

bpxxx也在这里实现吧。

class bpxxx: public bpinterface<ixxx>

{

public:

  bpxxx (const sp<ibinder>& impl)

    : bpinterface< ixxx >(impl)

  {

}

vitural getxxx()

{

 parcel data, reply;

 data.writeinterfacetoken(ixxx::getinterfacedescriptor());

  data.writeint32(pid);

  remote()->transact(get_xxx, data, &reply);

  return;

}

//setxxx类似

至此,binder就算分析完了,大家看完后,应该能做到以下几点:

l         如果需要写自己的service的话,总得知道系统是怎么个调用你的函数,恩。对。有2个线程在那不停得从binder设备中收取命令,然后调用你的函数呢。恩,这是个多线程问题。

l         如果需要跟踪bug的话,得知道从client端调用的函数,是怎么最终传到到远端的service。这样,对于一些函数调用,client端跟踪完了,我就知道转到service去看对应函数调用了。反正是同步方式。也就是client一个函数调用会一直等待到service返回为止。

 以上就是对 android binder机制的详细介绍,后续继续补充相关资料,谢谢大家对本站的支持!

如您对本文有疑问或者有任何想说的,请点击进行留言回复,万千网友为您解惑!

相关文章:

验证码:
移动技术网