当前位置: 代码迷 >> Android >> 从源码视角分析Android中的Binder机制的前因后果
  详细解决方案

从源码视角分析Android中的Binder机制的前因后果

热度:63   发布时间:2016-04-27 22:53:31.0
从源码角度分析Android中的Binder机制的前因后果

前面我也讲述过一篇文章《带你从零学习linux下的socket编程》,主要是从进程通信的角度开篇然后延伸到linux中的socket的开发。本篇文章依然是从进程通信的角度去分析下Android中的进程通信机制。

为什么在Android中使用binder通信机制?

众所周知linux中的进程通信有很多种方式,比如说管道、消息队列、socket机制等。socket我们再熟悉不过了,然而其作为一款通用的接口,通信开销大,数据传输效率低,主要用在跨网络间的进程间通信以及在本地的低速通信。消息队列和管道都是采用存储-转发模式,效率上面也有点低,因为这种模式的数据传输要经过两次的内存拷贝,先从发送方的缓存区拷贝到内核开辟的缓存区中,然后再从内核拷贝到接受方的缓存区。传统的ipc没有任何的安全措施,两个进程之间没有办法鉴别对方的身份,而在Android中,每个应用在安装后都会被分配一个uid,所以这个身份也有了保障,也更安全。为了保障安全和高效率,Android提供了一套全新的ipc通信机制也就是binder。

binder通信模型

一个进程间通信可以简单理解成为Client-server模式,binder机制在Android系统中的一个模型如下:

  1. Client获得到server端的proxy对象。
  2. Client通过调用proxy对象的方法向server发送请求。
  3. proxy对象通过binder设备节点,把Client请求信息发送到linux内核空间,由binder驱动获取并发送到服务进程。
  4. 服务进程处理Client请求,通过linux内核的binder驱动把结果返回给proxy对象。
  5. 客户端收到proxy的返回结果。

当client的线程进入到binder驱动后,内核会把client的线程挂起,然后进入服务进程,一直到结果返回,Client线程才会被唤醒,所以这个过程又类似于“线程迁移”,就是一个线程进入到另外一个进程中带着结果返回。

binder组成结构

  1. Binder驱动

    binder是内核中的一个字符驱动设备位于/dev/binder。这个设备是Android系统IPC的核心部分,客户端的服务代理用来通过它向server发送请求,服务器也是通过它把处理结果返回给客户端的服务代理对象。这部分内容,在Android中通过一个IPCThreadState对象封装了对Binder驱动的操作。
  2. Service Manager

    这个东西主要用来负责管理服务。Android中提供的系统服务都要通过Service Manager注册自己,将自己添加进服务管理链表中,为客户端提供服务。而客户端如果要和特定的系统服务端通讯,就需要向Service Manager来查询和获得所需要服务。可以看出Service Manager是系统服务对象的管理中心。
  3. 服务(Server)

    需要强调的是这里服务是指的是System Server,而不是SDK server,向客户端提供服务。
  4. 客户端

    一般是指Android系统上面的应用程序。它可以请求Server中的服务。
  5. 代理对象
    是指在客户端应用程序中获取生成的Server代理(proxy)类对象。从应用程序角度看代理对象和本地对象没有差别,都可以调用其方法,方法都是同步的,并且返回相应的结果。

从源码分析MediaPlayerService

和其他介绍binder机制的博客文章一样,接下来我也会从MediaPlayerService的角度去介绍bidner(建议大家看下深入理解Android这本书),源码在framework\base\Media\MediaServer\Main_mediaserver.cpp中。之所以选择MPS,是因为这个service牵涉了许多重要的服务,比如说音频、摄像等。

int main(int argc, char** argv){    // 打开驱动设备,将设备文件描述符映射到内存,这快内存作为数据交互的地方    sp<ProcessState> proc(ProcessState::self());    sp<IServiceManager> sm = defaultServiceManager();    LOGI("ServiceManager: %p", sm.get());    waitBeforeAdding( String16("media.audio_flinger") );    AudioFlinger::instantiate();    waitBeforeAdding( String16("media.player") );    // 注册MediaPlayerService,    MediaPlayerService::instantiate();    waitBeforeAdding( String16("media.camera") );    CameraService::instantiate();    waitBeforeAdding( String16("media.audio_policy") );    AudioPolicyService::instantiate();    ProcessState::self()->startThreadPool();    IPCThreadState::self()->joinThreadPool();}

首先看下ProcessState的构造函数

ProcessState::ProcessState(): mDriverFD(open_driver())// 开启binder, mVMStart(MAP_FAILED) // 内存映射的起始地址, mManagesContexts(false), mBinderContextCheckFunc(NULL), mBinderContextUserData(NULL), mThreadPoolStarted(false), mThreadPoolSeq(1){    ......    mVMStart = mmap(0, BINDER_VM_SIZE, PROT_READ, MAP_PRIVATE | MAP_NORESERVE, mDriverFD, 0);    .....}

上述ProcessState构造函数代码首先调用open_driver()方法,进入看看先:

static int open_driver(){    if (gSingleProcess) {        return -1;    }    // 打开binder设备,设备成功打开返回一个设备的文件描述符    int fd = open("/dev/binder", O_RDWR);       if (fd >= 0) {        // 改变已经打开的文件的性质。如果FD_CLOEXEC位是0,执行execve的过程中,文件保持打开。反之则关闭。        fcntl(fd, F_SETFD, FD_CLOEXEC);        int vers;        #if defined(HAVE_ANDROID_OS)        status_t result = ioctl(fd, BINDER_VERSION, &vers);        #else        status_t result = -1;        errno = EPERM;        #endif        if (result == -1) {            LOGE("Binder ioctl to obtain version failed: %s", strerror(errno));            close(fd);            fd = -1;        }        if (result != 0 || vers != BINDER_CURRENT_PROTOCOL_VERSION) {            LOGE("Binder driver protocol does not match user space protocol!");            close(fd);            fd = -1;        }    #if defined(HAVE_ANDROID_OS)    size_t maxThreads = 15;    result = ioctl(fd, BINDER_SET_MAX_THREADS, &maxThreads);    if (result == -1) {        LOGE("Binder ioctl to set max threads failed: %s", strerror(errno));    }    #endif    } else {        LOGW("Opening '/dev/binder' failed: %s\n", strerror(errno));    }    return fd;}

open_driver是打开binder设备 /dev/binder文件,打开成功后会返回一个文件描述符,接着调用fcntl函数来改变刚才打开的设备文件的性质。接着在调用ioctl函数,ioctl是设备驱动程序中对设备的I/O通道进行管理的函数。所谓对I/O通道进行管理,就是对设备的一些特性进行控制,例如串口的传输波特率、马达的转速等等,BINDER_SET_MAX_THREADS 就是用户程序对设备的控制命令,maxThreads则是补充参数,这句话的意思就是告诉binder驱动,这个文件描述符支持的最大线程数。在构造函数中使用mmap函数将该文件描述符映射到内存中,以便使用这块内存来接受数据。构造函数中做了两件比较重要的事情:

  1. 打开了/dev/binder设备文件,获取了一个与设备文件相关联的文件描述符,这也就相当于获得了一个与内核的binder驱动有了交互的通道。
  2. 使用mmap函数将该文件描述符映射到内存中,以便使用这块内存来接受数据。

接着再回到ProcessState::self()中来看看:

sp<ProcessState> ProcessState::self(){    if (gProcess != NULL) return gProcess;    AutoMutex _l(gProcessMutex);    if (gProcess == NULL) gProcess = new ProcessState;    return gProcess;}

这个self仅仅是返回了ProcessState对象,ProcessState是以单例模式设计的,主要用来维护当前进程和binder设备通信时的一个状态。

有了和binder驱动的交互通道后,接下来做了什么呢?我们看下以下这段代码:

sp<IServiceManager> sm = defaultServiceManager();

defaultServiceManager的业务实现在IServiceManager.cpp中,原型如下:

sp<IServiceManager> defaultServiceManager(){    if (gDefaultServiceManager != NULL)return gDefaultServiceManager;    AutoMutex _l(gDefaultServiceManagerLock);    if (gDefaultServiceManager == NULL) {        gDefaultServiceManager = interface_cast<IServiceManager>(ProcessState::self()->getContextObject(NULL));    }    return gDefaultServiceManager;}

最重要的就是这句代码了:

gDefaultServiceManager = interface_cast<IServiceManager>(ProcessState::self()->getContextObject(NULL))

再回到ProcessState中去看看getContextObject的实现

sp<IBinder> ProcessState::getContextObject(const sp<IBinder>& caller){    if (supportsProcesses()) {        return getStrongProxyForHandle(0);    } else {        return getContextObject(String16("default"), caller);    }}

supportsProcesses()就是说当前的设备是否支持进程,这毫无疑问,真实的设备肯定是支持的,所以接下来肯定是要走getStrongProxyForHandle(0)方法的。

sp<IBinder> ProcessState::getStrongProxyForHandle(int32_t handle){    sp<IBinder> result;    AutoMutex _l(mLock);    handle_entry* e = lookupHandleLocked(handle);    if (e != NULL) {        IBinder* b = e->binder;        if (b == NULL || !e->refs->attemptIncWeak(this)) {            b = new BpBinder(handle); // 创建一个BpBinder            e->binder = b;// 给资源项填充这个binder            if (b) e->refs = b->getWeakRefs();            result = b;        } else {            // This little bit of nastyness is to allow us to add a primary            // reference to the remote proxy when this team doesn't have one            // but another team is sending the handle to us.            result.force_set(b);            e->refs->decWeak(this);        }    }    // 返回了new BpBinder(0); /    return result;}

lookupHandleLocked函数用来查找对应的资源,一开始肯定是没有的,所以走b==null的分支,在这个分支里面使用handler==0作为参数新建了一个BpBinder,然后把这个binder赋值给了handle_entry的binder属性,最后把这个BpBinder对象返回,也就是说返回的是new BpBinder(0)。我觉得这里面应该是把handle_entry资源项和当前进程挂钩的,要不然这里为啥要把BpBinder和这个资源项绑定在一起呢。

在这里有两个比较重要的东西,就是BpBinder和BBinder,他们两个是成双成对的出现,BpBinder是客户端和服务端的代理类,而BBinder也就是BpBinder对立的一端,代表客户端要交互的目的端。换种说法讲就是BpBinder如果是客户端,那么BBinder则是服务端。

接下来gDefaultServiceManager = interface_cast(ProcessState::self()->getContextObject(NULL))就应该转变为如下的代码了:

gDefaultServiceManager = interface_cast<IServiceManager>(BpBinder)

这个interface_cast方法描述如下:

template<typename INTERFACE>inline sp<INTERFACE> interface_cast(const sp<IBinder>& obj){    return INTERFACE::asInterface(obj);}

interface_cast是一个模板方法,INTERFACE代表的就是IserviceManager,里面调用的是IserviceManager.asInterface方法,而在这个方法里面,则是利用了BpBinder对象构建了一个BpManagerService对象,我们知道BpBinder和BBinder两者是一个相互通信的关系,那么为什么这里又来了个BpManagerService,BpManagerService实现了IServiceManager中的业务函数,并且BpManagerService中有个mRemote对象指向了BpBinder对象。就这样,BpManagerService实现了业务函数并且也有了和服务端进行通信的代表。接下来就分析一下服务的注册了。

在MediaPlayerService.cpp中:

void MediaPlayerService::instantiate() {    // defaultServiceManager实际上返回的是BpManagerService,是IServiceManager的后代    defaultServiceManager()->addService(String16("media.player"), new   MediaPlayerService());}

defaultServiceManager()返回的就是BpManagerService,其实现了IServiceManager的业务方法,所以我们要去BpManagerService中看看addService的实现:

virtual status_t addService(const String16& name, const sp<IBinder>& service){    Parcel data, reply; // 数据包    data.writeInterfaceToken(IServiceManager::getInterfaceDescriptor());    data.writeString16(name);    data.writeStrongBinder(service);    // 将数据打包后,把通信的工作交给了BpServiceManager    // 这个remote其实就也就是mRemote,也就是BpBinder对象    // 数据打包后,传给了BpBinder对象的transact函数,也就意味着把通信的工作交给了BpBinder对象来完成    status_t err = remote()->transact(ADD_SERVICE_TRANSACTION, data, &reply);    // 所以addService函数其实就是一个业务层的函数,工作很简单,就是把数据打包后,再交给通信层去处理    return err == NO_ERROR ? reply.readExceptionCode() : err;}

Parcel我们可以理解成一个在进程间传送的数据包,data是我们要发送的数据包,而reply则是服务返回过来的数据包,数据打包后,交由remote()函数的transact方法执行,remote()方法返回的就是BpManagerService中的mRemote对象,这个对象指向的是之前的BpBinder对象,所以与服务通信的工作就交给了BpBinder对象来完成,下面前往BpBinder中去看看这个方法的实现:

status_t BpBinder::transact(uint32_t code, const Parcel& data, Parcel* reply,   uint32_t flags){    // Once a binder has died, it will never come back to life.    if (mAlive) {        status_t status = IPCThreadState::self()->transact(mHandle, code, data, reply, flags);        if (status == DEAD_OBJECT) mAlive = 0;        return status;    }    return DEAD_OBJECT;}

BpBinder其实没有什么可以做的实际工作,也就是个表象,这个真实工作又交给了IPCThreadState的transact,IPCThreadState才是在进程中真正干活的伙计,前往IPCThreadState.cpp中看看:

status_t IPCThreadState::transact(int32_t handle,                              uint32_t code, const Parcel& data,                              Parcel* reply, uint32_t flags){......if (err == NO_ERROR) {    LOG_ONEWAY(">>>> SEND from pid %d uid %d %s", getpid(), getuid(),        (flags & TF_ONE_WAY) == 0 ? "READ REPLY" : "ONE WAY");    // handle值为0,代表通信的目的端    // BC_TRANSACTION参数: 应用程序向binder设备发送消息的消息码。    // 而binder设备向应用程序回复消息码以BR_开头。    // 先发数据,然后等待结果返回    // 其实在这个方法里面只是把数据写入到mOut中,并没有发出去    err = writeTransactionData(BC_TRANSACTION, flags, handle, code, data, NULL);}........if ((flags & TF_ONE_WAY) == 0) {   ............    #endif    if (reply) {        err = waitForResponse(reply);    } else {        Parcel fakeReply;        err = waitForResponse(&fakeReply);    }    #if 0    .........} else {    err = waitForResponse(NULL, NULL);}return err;}

writeTransactionData看样子就只是把数据写入到一个地方了,原型如下:

status_t IPCThreadState::writeTransactionData(int32_t cmd, uint32_t binderFlags,int32_t handle, uint32_t code, const Parcel& data, status_t* statusBuffer){    binder_transaction_data tr;    //handle是0,表示目的端     tr.target.handle = handle;    // 消息码    tr.code = code;    tr.flags = binderFlags;    const status_t err = data.errorCheck();    if (err == NO_ERROR) {        tr.data_size = data.ipcDataSize();        tr.data.ptr.buffer = data.ipcData();        tr.offsets_size = data.ipcObjectsCount()*sizeof(size_t);        tr.data.ptr.offsets = data.ipcObjects();    } else if (statusBuffer) {        tr.flags |= TF_STATUS_CODE;        *statusBuffer = err;        tr.data_size = sizeof(status_t);        tr.data.ptr.buffer = statusBuffer;        tr.offsets_size = 0;        tr.data.ptr.offsets = NULL;    } else {        return (mLastError = err);    }    mOut.writeInt32(cmd);    mOut.write(&tr, sizeof(tr));    return NO_ERROR;}

这个方法只是直接把命令直接写到out中去,并没有把这个消息发出去,所以继续往下看waitForResponse方法,承载了发送和接受数据的工作肯定就在这里面了:

status_t IPCThreadState::waitForResponse(Parcel *reply, status_t *acquireResult){int32_t cmd;int32_t err;while (1) {    if ((err=talkWithDriver()) < NO_ERROR) break;    err = mIn.errorCheck();    if (err < NO_ERROR) break;    if (mIn.dataAvail() == 0) continue;    cmd = mIn.readInt32();    IF_LOG_COMMANDS() {        alog << "Processing waitForResponse Command: "            << getReturnString(cmd) << endl;    }    switch (cmd) {    case BR_TRANSACTION_COMPLETE:        if (!reply && !acquireResult) goto finish;        break;    case BR_DEAD_REPLY:        err = DEAD_OBJECT;        goto finish;    case BR_FAILED_REPLY:        err = FAILED_TRANSACTION;        goto finish;    case BR_ACQUIRE_RESULT:        {            LOG_ASSERT(acquireResult != NULL, "Unexpected brACQUIRE_RESULT");            const int32_t result = mIn.readInt32();            if (!acquireResult) continue;            *acquireResult = result ? NO_ERROR : INVALID_OPERATION;        }        goto finish;    case BR_REPLY:        {            binder_transaction_data tr;            err = mIn.read(&tr, sizeof(tr));            LOG_ASSERT(err == NO_ERROR, "Not enough command data for brREPLY");            if (err != NO_ERROR) goto finish;            if (reply) {                if ((tr.flags & TF_STATUS_CODE) == 0) {                    reply->ipcSetDataReference(                        reinterpret_cast<const uint8_t*>(tr.data.ptr.buffer),                        tr.data_size,                        reinterpret_cast<const size_t*>(tr.data.ptr.offsets),                        tr.offsets_size/sizeof(size_t),                        freeBuffer, this);                } else {                    err = *static_cast<const status_t*>(tr.data.ptr.buffer);                    freeBuffer(NULL,                        reinterpret_cast<const uint8_t*>(tr.data.ptr.buffer),                        tr.data_size,                        reinterpret_cast<const size_t*>(tr.data.ptr.offsets),                        tr.offsets_size/sizeof(size_t), this);                }            } else {                freeBuffer(NULL,                    reinterpret_cast<const uint8_t*>(tr.data.ptr.buffer),                    tr.data_size,                    reinterpret_cast<const size_t*>(tr.data.ptr.offsets),                    tr.offsets_size/sizeof(size_t), this);                continue;            }        }        goto finish;    default:        err = executeCommand(cmd);        if (err != NO_ERROR) goto finish;        break;    }}finish:if (err != NO_ERROR) {    if (acquireResult) *acquireResult = err;    if (reply) reply->setError(err);    mLastError = err;}return err;}

waitForResponse承载了发送和接受数据,那么发送给binder驱动,这个过程是怎么通信的呢?看下talkWithDriver函数:

status_t IPCThreadState::talkWithDriver(bool doReceive){LOG_ASSERT(mProcess->mDriverFD >= 0, "Binder driver is not opened");// binder_write_read是与binder驱动交换数据的结构binder_write_read bwr;// Is the read buffer empty?const bool needRead = mIn.dataPosition() >= mIn.dataSize();// We don't want to write anything if we are still reading// from data left in the input buffer and the caller// has requested to read the next data.const size_t outAvail = (!doReceive || needRead) ? mOut.dataSize() : 0;// 请求命令的填充bwr.write_size = outAvail;bwr.write_buffer = (long unsigned int)mOut.data();// This is what we'll read.if (doReceive && needRead) {    //  接受数据缓冲区信息的填充,如果以后收到数据了,就直接填在mIn中    bwr.read_size = mIn.dataCapacity();    bwr.read_buffer = (long unsigned int)mIn.data();} else {    bwr.read_size = 0;}IF_LOG_COMMANDS() {    TextOutput::Bundle _b(alog);    if (outAvail != 0) {        alog << "Sending commands to driver: " << indent;        const void* cmds = (const void*)bwr.write_buffer;        const void* end = ((const uint8_t*)cmds)+bwr.write_size;        alog << HexDump(cmds, bwr.write_size) << endl;        while (cmds < end) cmds = printCommand(alog, cmds);        alog << dedent;    }    alog << "Size of receive buffer: " << bwr.read_size        << ", needRead: " << needRead << ", doReceive: " << doReceive << endl;}// Return immediately if there is nothing to do.// 如果没有任何的数据交换,则立马返回if ((bwr.write_size == 0) && (bwr.read_size == 0)) return NO_ERROR;bwr.write_consumed = 0;bwr.read_consumed = 0;status_t err;do {    IF_LOG_COMMANDS() {        alog << "About to read/write, write size = " << mOut.dataSize() << endl;    }#if defined(HAVE_ANDROID_OS)    if (ioctl(mProcess->mDriverFD, BINDER_WRITE_READ, &bwr) >= 0)        err = NO_ERROR;    else        err = -errno;#else    err = INVALID_OPERATION;#endif    IF_LOG_COMMANDS() {        alog << "Finished read/write, write size = " << mOut.dataSize() << endl;    }} while (err == -EINTR);IF_LOG_COMMANDS() {    alog << "Our err: " << (void*)err << ", write consumed: "        << bwr.write_consumed << " (of " << mOut.dataSize()        << "), read consumed: " << bwr.read_consumed << endl;}if (err >= NO_ERROR) {    if (bwr.write_consumed > 0) {        if (bwr.write_consumed < (ssize_t)mOut.dataSize())            mOut.remove(0, bwr.write_consumed);        else            mOut.setDataSize(0);    }    if (bwr.read_consumed > 0) {        mIn.setDataSize(bwr.read_consumed);        mIn.setDataPosition(0);    }    IF_LOG_COMMANDS() {        TextOutput::Bundle _b(alog);        alog << "Remaining data size: " << mOut.dataSize() << endl;        alog << "Received commands from driver: " << indent;        const void* cmds = mIn.data();        const void* end = mIn.data() + mIn.dataSize();        alog << HexDump(cmds, mIn.dataSize()) << endl;        while (cmds < end) cmds = printReturnCommand(alog, cmds);        alog << dedent;    }    return NO_ERROR;}return err;}

看来这里和binder驱动设备进行通信并不是使用read/write方式,而是ioctl方式。这样就完成了binder通信了。

就分析到这里吧。有空再深入研究

版权声明:本文为博主原创文章,未经博主允许不得转载(联系方式:QQ:312037487 邮箱:[email protected])。

  相关解决方案