Delphi的DirectShow开发概述

第一部分:背景知识

DirectShow是微软公司提供的一套在Windows平台上进行流媒体处理的开发包,与DirectX开发包一起发布。它经过DirectX 6.0中的DirectX Media发展而来,集成了DirectX家族中的其他成员(DirectDraw、DirectSound等),可以说是一位“集大成者”。

DirectShow能做些什么? DirectShow为多媒体流的捕捉和回放提供了强有力的支持。运用DirectShow,可以很方便地从支持WDM驱动模型的采集卡上捕获数据,并且进行相应的后期处理乃至存储到文件中。它广泛地支持各种媒体格式,包括Asf、Mpeg、Avi、Dv、Mp3、Wave等等,使得多媒体数据的回放变得轻而易举。另外,DirectShow直接支持DVD的播放,视频的非线性编辑,以及与数字摄像机的数据交换。更值得一提的是,DirectShow提供的是一种开放式的开发环境,每个功能模块都采取COM组件方式,称为Filter,开发者也可以开发自己的功能Filter来扩展DirectShow的应用。按照功能来划分,Filter分为3类:Source Filter, Transform Filter, Rendering Filter。前者负责获取数据,数据源可以是文件、数字摄像机等,然后将数据往下传输;中间者负责数据的格式转换,比如数据流的分离与合成、编码解码等,然后把数据继续往下传输;后者负责数据的去向——给声卡、显卡进行播放或者输出到文件存储。

第二部分核心技术

DirectShow的开发实际就是Filter的开发,DirectShow自身提供了,下面就是Filter概述。

1、DirectShow的 Filter

Filter 一般分为下面几种类型。

(1)源过滤器(source filter):源过滤器引入数据到过滤器图表中,数据来源可以是文件、网络、照相机等。不同的源过滤器处理不同类型的数据源。

(2)变换过滤器(transform filter):变换过滤器的工作是获取输入流,处理数据,并生成输出流。变换过滤器对数据的处理包括编解码、格式转换、压缩解压缩等。

(3)提交过滤器(renderer filter):提交过滤器在过滤器图表里处于最后一级,它们接收数据并把数据提交给外设。

(4)分割过滤器(splitter filter):分割过滤器把输入流分割成多个输出。例如,AVI分割过滤器把一个AVI格式的字节流分割成视频流和音频流。

(5)混合过滤器(mux filter):混合过滤器把多个输入组合成一个单独的数据流。例如,AVI混合过滤器把视频流和音频流合成一个AVI格式的字节流。

过滤器的这些分类并不是绝对的,例如一个ASF读过滤器(ASF Reader filter)既是一个源过滤器又是一个分割过滤器。

2、关于Filter Graph Manager

Filter Graph Manager也是一个com对象,用来控制Filter graph中的所有的filter,主要有以下的功能:

1) 用来协调filter之间的状态改变,从而使graph 中的所有的filter的状态的改变应该一致。

2) 建立一个参考时钟。

3) 将filter 的消息通知返回给应用程序

4) 提供用来建立 filter graph的方法。

简单描述,Graph就是各个Filter组成的一个流程图。

SourceFilter----|-----SpliterFilter-------------(Video-pin)>-----TransFormFilter--->VideoRender

|---------------------(Audio-pin)->----ACMWraperFilter--->DirectSoundFilter

程序启动过程,先创建各个filter的com对象,然后使用FilterGraph.Addfilter加入到Graph中,然后把每个Filter按照

数据流把OutPin和inpuin连接起来。最好启动FilterGraph.play即可。

Directshow是基于模块化,每个功能模块都采取COM组件方式,称为Filter。Directshow提供了一系列的标准的模块可用于应用开发,开发者也可以开发自己的功能Filter来扩展Directshow的应用。下面我们用一个例子来说明如何采取Filter来播放一个AVI的视频文件。

1) 首先从一个文件中读取AVI数据,形成字节流。(这个工作由源Filter完成)

2) 检查AVI数据流的头格式,然后通过AVI分割Filter将视频流和音频流分开。

3) 解码视频流,根据压缩格式的不同,选取不同的decoder filters 。

4) 通过Renderer Filter重画视频图像。

5) 音频流送到声卡进行播放,一般采用缺省的 DirectSound Device Filter。

状态改变,Graph中的filter的状态改变应该一致,因此,应用程序并将状态改变的命令直接发给filter,而是将相应的状态改变的命令发送给Filter graph Manager,由manager将命令分发给graph中每一个filter。Seeking也是同样的方式工作,首先由应用程序将seek命令发送到filter graph 管理器,然后由其分发给每个filter。

参考时钟,graph中的filter都采用的同一个时钟,称为参考时钟(reference clock),参考时钟可以确保所有的数据流同步,视频桢或者音频桢应该被提交的时间称为presentation time.presentation time 是相对于参考时钟来确定的。Filter graph Manager应该选择一个参考时钟,可以选择声卡上的时钟,也可以选择系统时钟。

Graph事件, Graph 管理器采用事件机制将graph中发生的事件通知给应用程序,这个机制类似于windows的消息循环机制。

Graph构建的方法,graph管理器给应用程序提供了将filter添加进graph的方法,连接filter的方法,断开filter连接的方法。

但是,graph 管理器没有提供如何将数据从一个filter发送到另一个filter的方法,这个工作是由filter在内部通过pin来独立完成的。

3、媒体类型

因为Directshow是基于com组件的,就需要有一种方式来描述filter graph每一个点的数据格式,例如,我们还以播放AVI文件为例,数据以RIFF块的形式进入graph中,然后被分割成视频和音频流,视频流有一系列的压缩的视频桢组成,解压后,视频流由一系列的无压缩的位图组成,音频流也要走同样的步骤。

媒体类型是一种很普遍的,可以扩展的用来描述数字媒体格式的方法,当两个filter连接的时候,他们会就采用某一种媒体类型达成一致的协议。媒体类型定义了处于源头的filter将要给下游的filter发送什么样的数据,以及数据的physical layout。如果两个filter不能够支持同一种的媒体类型,那么他们就没法连接起来。

对于大多数的应用来说,也许你不用考虑媒体类型,但是,有些应用程序中,你会直接应用到媒体类型的。

媒体类型是通过AM_MEDIA_TYPE结构定义的。

Filters通过pin的连接来传递数据,数据流是从一个filter的输出pin流向相连的filter的输入pin。输出pin常用的传递数据的方式是调用输入pin上的IMemInputPin::Receive方法。

对于filter来说,可以有好几种方式来分配媒体数据使用的内存块,可以在堆上分配,可以在DirectDraw的表面,也可以采用GDI共享内存,还有其他的一些方法,在Directshow中用来进行内存分配任务的是内存分配器(allocator),也是一个COM对象,暴露了一个IMemAllocator接口。

当两个pin连接的时候,必须有一个pin提供一个allocator,Directshow定义了一系列函数调用用来确定由哪个pin提供allocator,以及buffer的数量和大小。

在数据流开始之前,allocator会创建一个内存池(pool of buffer),在开始发送数据流以后,源filter就会将数据填充到内存池中一个空闲的buffer中,然后传递给下面的filter。但是,源filter并不是直接将内存buffer的指针直接传递给下游的filter,而是通过一个media samples的COM对象,这个sample是allocator创建的用来管理内存buffer。Media sample暴露了IMediaSample接口,一个sample包含了下面的内容:

一个指向没有发送的内存的指针。

一个时间戳

一些标志

媒体类型。

时间戳表明了presentation time,Renderer filter就是根据这个时间来安排render顺序的。标志是用来标示数据是否中断等等,媒体类型提供了中途改变数据格式的一种方法,不过,一般sample没有媒体类型,表明它们的媒体类型一直没有改变。

当一个filter正在使用buffer,它就会保持一个sample的引用计数,allocator通过sample的引用计数用来确定是否可以重新使用一个buffer。这样就防止了buffer的使用冲突,当所有的filter都释放了对sample的引用,sample才返回到allocator的内存池,供重新使用

基于Delphi的DirectShow开发概述2

MajorType:主要类型;例如视频,音频,还是位流

subType : 辅助说明类型,例如视频中的YUV12,还是UYVY等等

formatType: 格式描述,更为细节的结构体。例如,视频大小,频率,帧率等,

可以使用FORMAT_VIDEOINFO(VIDEOINFOHEADER),FORMAT_WAVEFORMATEX(WAVEFORMATEX)结构体来描述

//PAMMediaType

当使用AM_MEDIA_TYPE数据结构来描述媒体类型的时候,如果MajorType,subType,formatType都指定了GUID,那么

这就是完全媒体类型。

***************************************Filter的连接************************************

Filter的连接实际上就是Pin的连接。连接方向总是由上一级的Filter(UpStream Filter)的输出Pin指向下一级

Filter(DownStream Filter)的输入Pin。

1.Filter连接过程

Pin也是一种COM接口。实现了IPIN的接口。一般通过调用(下面的函数来连接):

IFilterGraph.ConnectDirect,IGraphBuilder.Connect,IGraphBuilder.Render,IGraphBuilder.RenderFile

{ 下面就是个范例,一般Filter是在停止状态下连接的。

//连接 source -> MPEG1Spliter

Source.FindPin(StringToOLEStr('Output'), OutPin);

MPEG1Splitter.FindPin(StringToOLEStr('Input'), inPin);

hr := (FilterGraph1 as IGraphBuilder).Connect(OutPin, InPin);

if FAILED(hr) then begin

ShowMessage('Failed connect mpg Source -> MPEG1Splitter');

exit;

end;

}

2.FilterGraph构建的方法

1)IFilterGraph.AddFilter 该参数提供一个Filter对象,将其加入到FilterGraph中.

2)IFilterGraph.ConnectDirect 该参数提供输出Pin,输入Pin以及媒体类型,进行直接连接

3)IGraphBuilder.AddSourceFilter 该参数提供源文件名,自动将一个SourceFilter加载到FilterGraph中

4)IGraphBuilder.Connect 该参数提供输出Pin,输入Pin以及媒体类型,进行连接,如果失败,自动尝试在中间加入必要的格式转换Filter

5)IGraphBuilder.Render 该参数提供输出Pin,自动间加入必要的Filter完成剩下的部分FilterGraph的构建(直到连到RenderFilter上)

6)IGraphBuilder.Render 该参数提供源文件名,自动间加入必要的Filter完成这个文件的回放

{

//下面范例,表示该FilterGraph中有6个Filter,他们都是由COM对象创建而来。

var

Source : IBaseFilter;

MPEG1Splitter : IBaseFilter;

MpegVcodec : IBaseFilter;

AviDec : IBaseFilter;

AviDest : IBaseFilter;

Writer : IBaseFilter;

hr : HRESULT;

OutPin, InPin : IPin;

begin

CoCreateInstance(CLSID_AsyncReader, nil, CLSCTX_INPROC,IID_IBaseFilter, Source); //典型的拉模式

CoCreateInstance(CLSID_MPEG1Splitter, nil, CLSCTX_INPROC,IID_IBaseFilter, MPEG1Splitter); //MPEG1格式

CoCreateInstance(CLSID_CMpegVideoCodec, nil, CLSCTX_INPROC,IID_IBaseFilter, MpegVcodec); //MPEG编码

CoCreateInstance(CLSID_AVIDec, nil, CLSCTX_INPROC,IID_IBaseFilter, AviDec); //AVI解码

CoCreateInstance(CLSID_AviDest, nil, CLSCTX_INPROC, IID_IBaseFilter, AviDest); //AVI目标

CoCreateInstance(CLSID_FileWriter, nil, CLSCTX_INPROC,IID_IBaseFilter, Writer); //写文件

(FilterGraph1 as IFilterGraph).AddFilter(Source, 'Source');

(FilterGraph1 as IFilterGraph).AddFilter(MPEG1Splitter, 'MPEG1Splitter');

(FilterGraph1 as IFilterGraph).AddFilter(MpegVcodec, 'MpegVcodec');

(FilterGraph1 as IFilterGraph).AddFilter(AviDec, 'AviDec');

(FilterGraph1 as IFilterGraph).AddFilter(AviDest, 'AviDest');

(FilterGraph1 as IFilterGraph).AddFilter(Writer, 'Writer');

end;

}

3. 一般使用GraphEdit可以查看到目前正常安装在系统中的Filter,如果是安装在DirectShow目录下的可以通过指定CLSID

用CoCreateInstance来创建。在其它目录下的,必须通过系统枚举来创建。

系统提供了一个CLSID_SystemDeviceEnum,用CoCreateInstance创建,并获取ICreateDevEnum接口。然后

使用ICreateDevEnum.CreateClassEnumerator为指定的类型目录创建一个枚举器,并获得IEnumMoniker接口。

使用IEnumMoniker.next方法,媒体该目录下所有可用设备标识(Device Moniker),每个设备标识对象上都实现了Imoniker接口

调用Imoniker.bindtoStorage之后就可以访问设备标识属性集。比如得到设备的显示名字。

调用Imoniker.BindToObject可以将设备标识绑定成一个DirecshowFilter,然后调用IFilterGraph.addFilter加入FilterGraph

参加工作。

DirectShow通常有两个名字:显示名字例如:@device:cm:{33D9A760-90C8-11D0-BD43-00A0C911CE86}\xvid

友好名字例如:xvid mpeg4 decoder

{下面就是调用代码

var

i, j: integer;

AMoniker, MyMoniker: IMoniker;

PropBag: IPropertyBag;

AVariant: OleVariant;

CLSID: TGUID;

Found: boolean;

begin

for i := 0 to SysDevEnum.CountCategories - 1 do

cbCategories.Items.Add(SysDevEnum.Categories[i].FriendlyName); //SysDevEnum:TSysDevEnum;

Found := false;

j := 0;

MyMoniker := Filter.BaseFilter.Moniker;

if MyMoniker = nil then exit;

MyMoniker.BindToStorage(nil,nil,IPropertyBag, PropBag);

if PropBag.Read('CLSID',AVariant,nil) = S_OK then

CLSID := StringToGUID(AVariant)

else CLSID := GUID_NULL;

for i := 0 to SysDevEnum.CountCategories - 1 do

begin

SysDevEnum.SelectIndexCategory(i);

if SysDevEnum.CountFilters > 0 then

for j := 0 to SysDevEnum.CountFilters - 1 do

begin

if IsEqualGUID(CLSID, SysDevEnum.Filters[j].CLSID) then

begin

AMoniker := SysDevEnum.GetMoniker(j);

Found := AMoniker.IsEqual(MyMoniker) = S_OK;

AMoniker := nil;

end;

if Found then Break;

end;

if Found then

begin

cbCategories.ItemIndex := i;

cbCategoriesChange(nil);

lbFilters.ItemIndex := j;

lbFiltersClick(nil);

break;

end;

end;

PropBag := nil;

MyMoniker := nil;

}

PAMMediaType = ^TAMMediaType;

_AMMediaType = record

majortype : TGUID;

subtype : TGUID;

bFixedSizeSamples : BOOL;

bTemporalCompression : BOOL;

lSampleSize : ULONG;

formattype : TGUID;

pUnk : IUnknown;

cbFormat : ULONG;

pbFormat : Pointer;

end;

Filter开发基础----基类分析

1)TBCBaseFilter

TBCBaseFilter = class(TBCUnknown, IBaseFilter, IAMovieSetup)

是最基本Filter的基类,使用方法:

(1)声明一个新类继承自 TBCBaseFilter

(2)在新类中定义一个Filter上Pin的实例。(Pin从TBCBasePin继承)

(3)实现纯虚函数TBCBaseFilter.GetPin,用于返回Filter上各个Pin的对象指针

(4)实现纯虚函数TBCBaseFilter.GetPinCount,用于返回Filter上Pin的数量

(5)考虑如何处理从输入Pin进来的Sample数据

2)TBCBasePin

TBCBasePin实现了PIn接口,TBCBasePin设计了Pin的整个连接过程。也实现了IQualityControl质量控制接口。

在TBCBasePin上实现了3个成员函数与Filter状态对应。

(1) Filter.Stopped <-------------> TBCBasePin.Inactive

(2) Filter.Spaused <-------------> TBCBasePin.active

(3) Filter.Running <-------------> TBCBasePin.Run

在实际开发Filter时,有可能重写该3个函数,用来初始化和释放必要资源。实现方法:

(1)从TBCBasePin派生一个子类

(2)实现纯虚函数TBCBasePin.CheckMediaType,进行Pin连接时媒体类型检测

(3)实现纯虚函数TBCBasePin.GetMediaType,提供Pin上的首先媒体类型

(4)实现Ipin.BeginFlush和IPin.EndFlush两个函数

(5)可能需要重写的函数包括。TBCBasePin.Inactive,TBCBasePin.active,TBCBasePin.Run,

TBCBasePin.CheckConnect(连接的时候检查,如查询对方Pin上是否支持某个特殊接口),

TBCBasePin.BreakConnect(断开连接,并进行必要的资源释放),

TBCBasePin.CompleteConnect(完成连接时被调用,可以在这个函数中获得当前连接用的媒体类型等参数),

TBCBasePin.EndOfStream(当上流数据全部传送完毕后被调用,如果这是个TransformFilter则将继续往下送,

如是个RenderFilter,则需要向FilterGraph发送一个EC_COMPLETE事件)

TBCBasePin.Notify(直接响应质量控制,或者将质量控制消息往上一级Filter发送)

3)TBCBaseInputPin和TBCBaseOutputPin

TBCBaseInputPin和TBCBaseOutputPin都是从TBCBasePin派生而来,

TBCBaseInputPin实现了ImeminputPin(用于推模式的数据传送)

TBCBaseOutputPin主要完成了传送数据所用的Sample管理器(Allocate)的协商,并重写了TBCBasePin.active(用于

实际的Sample内存分配),TBCBasePin.inactvie(用于Sample内存的释放)。

TBCBaseInputPin使用方法(派生一个子类,并且至少重写如下函数):

(1) TBCBaseInputPin.BeginFlush

(1) TBCBaseInputPin.EndFlush

(1) TBCBaseInputPin.Receive

(1) TBCBaseInputPin.CheckMediaType(一般在输出Pin上实现该函数)

(1) TBCBaseInputPin.GetMediaType

TBCBaseOutputPin使用方法(派生一个子类,并且至少重写如下函数):

(1)重写TBCBasePin.CheckMediaType进行连接时的媒体类型检查

(2)实现纯虚函数TBCBaseOutputPin.DecideBufferSize,决定Sample内存的大小

(3)重写纯虚函数TBCBasePin.GetMediaType,提供Pin上的首先媒体类型

4)TBCMediaType

TBCMediaType用于数据传输的Sample的实现类,TBCMediaType实现了IMediaSample2的接口,TBCMediaType封装了

一个指向一块内存的指针,通过TBCMediaType.GetPointer得到

5)TBCSourceStream = class(TBCBaseOutputPin)

提供了“推”(Push)的能力,实现了一个线程(TBCAMThread),Sample数据就是靠这个线程向下一级Filter发送的。

实现方法:

(1)从TBCSourceStream派生一个子类作为Pin

(2)实现纯虚函数TBCSourceStream.CheckMediaType,进行Pin连接时媒体类型检测

(3)实现纯虚函数TBCSourceStream.GetMediaType,提供Pin上的首先媒体类型

(4)实现TBCBaseOutputPin.DecideBufferSize,决定Sample内存大小,在Pin连接时会执行

(5)实现TBCSourceStream.FillBuffer,为即将传送出去的Sample填充数据

(6)可选地实现TBCSourceStream.OnThreadCreate,

TBCSourceStream.OnThreadDestroy,

TBCSourceStream.OnThreadStartPlay 等函数,进行适当时机的初始化,资源管理等操作。

6)TBCTransformFilter

实现了媒体类型的转换,主要实现如下函数:

(1)TBCTransformFilter.CheckInputType

(2)TBCTransformFilter.CheckTransForm

(3)TBCTransformFilter.DecideBufferSize

(4)TBCTransformFilter.GetMediaType

(5)TBCTransformFilter.TransForm

7)TBCTransinPlaceFilter

是一个“就地”处理的转换Filter。

8)TBCVideoTransformFilter

一个视频质量控制的基类。通过输入Pin上的Receive函数接收Sample时,能够根据质量消息决定是否丢帧,这个类

主要是为开发AVI解码Filter而设计的。使用方法基本和TBCTransformFilter相同。

9)TBCBaseRenderer

默认实现使用TBCRenderInutPin类的输入Pin。还实现了IMediaSeeking和IMediaPosition接口。使用方法:

(1)实现TBCBaseRenderer.CheckMediaType,用于检查输入Pin连接用的媒体类型

(2)实现TBCBaseRenderer.DoRenderSample,处理当前的Sample

如果我们不处理Sample,需要写文件,基类可以选择从TBaseFilter,而此时输入Pin最好选择从TBCRenderInputIn

派生类。

10)TBCBaseVideoRenderer

实现了VideoFilter基类,其中实现了IQualityControl用于视频质量控制,IQualProp用于在Filter属性页显示一些

实时性能参数。使用方法与TBCBaseRenderer相同。

基于Delphi的DirectShow开发概述3

Delphi设计Directshow其实也是比较简单的,看了前面两个概述,相信你也会明白一些了,问题就是你要有什么杨的需求,然后根据需求来选择合适的Filter基类,从基类(BassFilter)继承下来后,只需要覆盖指定的函数就可以了。

例如我们要设计一个屏幕(Desktop)捕获的的Filter,每秒捕获大概10帧(10副抓屏bitmap),这个明显需要实现Push下推的功能,因此我们可以选择从TBCSourceStream基类派生一个子类,然后实现如下几个函数即可:

//GetMediaType函数是下级Filter在和本Filter连接时在下级InpuPin接口上调用的

function GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult; override;

//实现虚函数CheckMediaType,实现接受8, 16, 24 or 32 RGB位视频格式

//如果媒体格式不能接受,则返回E_INVALIDARG

function CheckMediaType(MediaType: PAMMediaType): HResult; override;

//在本Filter的OutPutPin接口和下级InputPin接口协商时调用的,主要用来协商每个Sample的大小

function DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT; override;

//设置视频媒体参数,在初始化Filter时调用

function SetMediaType(MediaType: PAMMediaType): HRESULT; override;

//以上几个函数是在和下级Filter进行接口连接和协商时调用,FillBuffer函数则是由本Filter内置线程按一定时间

//间隔调用,这里当然是把抓屏的Bitmap数据填充到Sample中,推给下一级。

function FillBuffer(Sample: IMediaSample): HResult; override;

//实现虚函数,质量控制功能

function Notify(Filter: IBaseFilter; q: TQuality): HRESULT; override; stdcall;

具体代码分析如下:

CLSID_PushSourceDesktop: TGUID = '{570757C1-D2D8-42D1-BA0C-24E1BED3F62F}'; //PushFilter注册名

//Pin注册类型结构

TRegPinTypes = record

clsMajorType: PGUID;

clsMinorType: PGUID;

end;

//Setup信息结构

sudPinTypes: TRegPinTypes =

(

//视频流的类型

clsMajorType: @MEDIATYPE_Video;

//所用可用类型

clsMinorType: @MEDIASUBTYPE_NULL

);

//Filter注册Pin接口信息结构

TRegFilterPins = record

strName : PWideChar;

bRendered : BOOL;

bOutput : BOOL;

bZero : BOOL;

bMany : BOOL;

oFilter : PGUID;

strConnectsToPin : PWideChar;

nMediaTypes : LongWord;

lpMediaType : PRegPinTypes;

end;

//定义实例

sudOutputPinDesktop: array[0..0] of TRegFilterPins =

(

(

strName: 'Output'; // Pin名称

bRendered: FALSE; //是否是Render

bOutput: TRUE; //是否是输出接口

bZero: FALSE; //是否允许为0

bMany: FALSE; //是否有更多

oFilter: nil; //连接的Filter

strConnectsToPin: nil; //连接的Pin

nMediaTypes: 1; //支持类型数量

lpMediaType: @sudPinTypes // Pin信息

)

);

DefaultFrameLength: TReferenceTime = FPS_10; //由参考时钟确定FPS_10=1000000

PushDesktopName: WideString = '_ PushSource Desktop Filter'; //PushFilter友好名

//Pin接口类封装,继承TBCSourceStream<---TBCBaseOutputPin<----TBCBasePin(TBCUnknown, IPin, IQualityControl)

TBCPushPinDesktop = class(TBCSourceStream)

protected

FFramesWritten : Integer; //在播放文件的时候跟踪当前位置

FZeroMemory : Boolean; //是否必须清零Buffer

FSampleTime : TRefTime; //每个Sample一个时间戳

FFrameNumber : Integer; //已经显示了多少帧了

FFrameLength : TReferenceTime; //一帧的耗费时间

FScreenRect : TRect; //包含需要捕获的视频框

FImageHeight, //当前图像高

FImageWidth, //当前图像宽

FRepeatTime, //每帧之间重复时间 Time in msec between frames

FCurrentBitDepth: Integer; //屏幕色彩位

FMediaType : TAMMediaType; //媒体类型

FSharedState : TBCCritSec; //临界区在资源共享中实现线程同步

public

constructor Create(out hr: HResult; Filter: TBCSource);

destructor Destroy; override;

//实现虚函数,提供一个精确的媒体类型

function GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult; override;

//实现虚函数,实现接受8, 16, 24 or 32 RGB位视频格式

//如果媒体格式不能接受,则返回E_INVALIDARG

function CheckMediaType(MediaType: PAMMediaType): HResult; override;

function DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT; override;

function SetMediaType(MediaType: PAMMediaType): HRESULT; override;

function FillBuffer(Sample: IMediaSample): HResult; override;

//实现虚函数,质量控制功能

function Notify(Filter: IBaseFilter; q: TQuality): HRESULT; override; stdcall;

end;

//PushFilter的类封装,继承自TBCSource<-----TBCBaseFilter

//把桌面抓屏图像作为连续视频流

TBCPushSourceDesktop = class(TBCSource)

private

FPin: TBCPushPinDesktop;

public

constructor Create(ObjName: string; Unk: IUnKnown; out hr: HRESULT);

constructor CreateFromFactory(Factory: TBCClassFactory; const Controller: IUnknown); override;

destructor Destroy; override;

end;

//TBCPushPinDesktop析构函数

constructor TBCPushPinDesktop.Create(out hr: HResult; Filter: TBCSource);

var

DC: HDC;

begin

inherited Create('_ Push Source Desktop', hr, Filter, 'Out');

FFramesWritten := 0;

FZeroMemory := False;

FFrameNumber := 0;

FFrameLength := FPS_5;

FSharedState := TBCCritSec.Create;

FCurrentBitDepth := 32;

//这里关键是显示如何获取DIB图像,使用内存方式,把DIB图像插入到视频流

//为了尽可能保持Samle采样,我们就需要从一个文件中读取图像,把它插入到发送下行接口流中

//获取需要显示设备context上下文

DC := CreateDC('DISPLAY', nil, nil, nil);

//获取主桌面窗口的尺寸

FScreenRect.Left := 0;

FScreenRect.Top := 0;

FScreenRect.Right := GetDeviceCaps(DC, HORZRES);

FScreenRect.Bottom := GetDeviceCaps(DC, VERTRES);

//保持该尺寸,为后面填充Buffer使用

FImageWidth := FScreenRect.Right - FScreenRect.Left;

FImageHeight := FScreenRect.Bottom - FScreenRect.Top;

//释放资源

DeleteDC(DC);

hr := S_OK;

end;

destructor TBCPushPinDesktop.Destroy;

begin

{$IFDEF DEBUG}

DbgLog(self, Format('Frames written %d', [FFrameNumber]));

{$ENDIF}

inherited;

end;

//参考的视频格式,8, 16 (*2), 24 or 32 bits per pixel

//参考这些类型,选择更高的质量控制

// Therefore, iPosition =

// 0 Return a 32bit mediatype

// 1 Return a 24bit mediatype

// 2 Return 16bit RGB565

// 3 Return a 16bit mediatype (rgb555)

// 4 Return 8 bit palettised format

// >4 Invalid

{

PVideoInfo = ^TVideoInfo;

tagVIDEOINFO = record

rcSource: TRect; // 我们实际需要使用的位(在整个窗口中的Sub窗口)

rcTarget: TRect; // 该视频音频去哪

dwBitRate: DWORD; // 近似位率

dwBitErrorRate: DWORD; // 错位率

AvgTimePerFrame: TReferenceTime; // 每帧的平均时间(100ns units)

bmiHeader: TBitmapInfoHeader; //位图信息头,解码为RGB后可以形成一个Bitmpa图像

case Integer of

0: (

bmiColors: array[0..iPALETTE_COLORS-1] of TRGBQuad //调色板

);

1: (

dwBitMasks: array[0..iMASK_COLORS-1] of DWORD //真彩色掩码

);

2: (

TrueColorInfo: TTrueColorInfo //两者都有

);

end;

PAMMediaType = ^TAMMediaType;

_AMMediaType = record

majortype : TGUID;

subtype : TGUID;

bFixedSizeSamples : BOOL;

bTemporalCompression : BOOL;

lSampleSize : ULONG;

formattype : TGUID;

pUnk : IUnknown;

cbFormat : ULONG;

pbFormat : Pointer;

end;

}

function TBCPushPinDesktop.GetMediaType(iPosition: Integer; out MediaType: PAMMediaType): HResult;

var

pvi: PVIDEOINFO;

i: Integer;

begin

FFilter.StateLock.Lock;

try

if (MediaType = nil) then

begin

Result := E_POINTER; //指针错误

Exit;

end;

if (iPosition < 0) then

begin

Result := E_INVALIDARG; //无效的位置

Exit;

end;

//是否从类型结束处开始 Have we run off the end of types?

if (iPosition > 4) then

begin

Result := VFW_S_NO_MORE_ITEMS;

Exit;

end;

MediaType.cbFormat := SizeOf(TVideoInfo); //视频类型

pvi := CoTaskMemAlloc(MediaType.cbFormat); //为媒体类型结构体分配内存

if (pvi = nil) then

begin

Result := E_OUTOFMEMORY;

Exit;

end;

ZeroMemory(pvi, MediaType.cbFormat);

case iPosition of

0:

begin

//返回32位格式的最高质量图像=RGB888

pvi.bmiHeader.biCompression := BI_RGB; //无压缩RGB格式

pvi.bmiHeader.biBitCount := 32;

end;

1:

begin

pvi.bmiHeader.biCompression := BI_RGB;

pvi.bmiHeader.biBitCount := 24;

end;

2:

begin

//每像素16位=RGB565,把RGB掩码以DWord类型,放入调色板前三个地方

for i := 0 to 2 do

pvi.TrueColorInfo.dwBitMasks[i] := bits565[i];

pvi.bmiHeader.biCompression := BI_BITFIELDS;

pvi.bmiHeader.biBitCount := 16;

end;

3:

begin

//每像素16位=RGB555,把RGB掩码以DWord类型,放入调色板前三个地方

for i := 0 to 2 do

pvi.TrueColorInfo.dwBitMasks[i] := bits555[i];

pvi.bmiHeader.biCompression := BI_BITFIELDS;

pvi.bmiHeader.biBitCount := 16;

end;

4:

begin

//每像素8位,可以不带调色板子

pvi.bmiHeader.biCompression := BI_RGB;

pvi.bmiHeader.biBitCount := 8;

pvi.bmiHeader.biClrUsed := iPALETTE_COLORS;

end;

end;

//任何视频格式都必须调整下面参数

pvi.bmiHeader.biSize := SizeOf(TBitmapInfoHeader);

pvi.bmiHeader.biWidth := FImageWidth;

pvi.bmiHeader.biHeight := FImageHeight;

pvi.bmiHeader.biPlanes := 1;

pvi.bmiHeader.biSizeImage := GetBitmapSize(@pvi.bmiHeader);

pvi.bmiHeader.biClrImportant := 0;

//清空源和目标框

SetRectEmpty(pvi.rcSource);

SetRectEmpty(pvi.rcTarget);

//设置Majortype相关参数

MediaType.majortype := MEDIATYPE_Video; //主类型为视频格式

MediaType.formattype := FORMAT_VideoInfo; //格式类型为视频格式

MediaType.bTemporalCompression := False;

MediaType.bFixedSizeSamples := True;

// 设置Subtype相关参数

MediaType.subtype := GetBitmapSubtype(@pvi.bmiHeader);

MediaType.pbFormat := pvi;

MediaType.lSampleSize := pvi.bmiHeader.biSizeImage;

Result := S_OK;

finally

FFilter.StateLock.UnLock;

end;

end;

//检查我们是否支持该媒体类型

function TBCPushPinDesktop.CheckMediaType(MediaType: PAMMediaType): HResult;

var

pvi: PVIDEOINFO;

SubType: TGUID;

begin

//我们仅仅需要输出该视频

if not (IsEqualGUID(MediaType.majortype, MEDIATYPE_Video)) or

not (MediaType.bFixedSizeSamples) then

begin

Result := E_INVALIDARG;

Exit;

end;

//检查我们支持的子类型

SubType := MediaType.subtype;

if IsEqualGUID(SubType, GUID_NULL) then

begin

Result := E_INVALIDARG;

Exit;

end;

if not (

IsEqualGUID(SubType, MEDIASUBTYPE_RGB8) or

IsEqualGUID(SubType, MEDIASUBTYPE_RGB565) or

IsEqualGUID(SubType, MEDIASUBTYPE_RGB555) or

IsEqualGUID(SubType, MEDIASUBTYPE_RGB24) or

IsEqualGUID(SubType, MEDIASUBTYPE_RGB32)

) then

begin

Result := E_INVALIDARG;

Exit;

end;

pvi := MediaType.pbFormat;

if (pvi = nil) then

begin

Result := E_INVALIDARG;

Exit;

end;

//检查图像尺寸是否改变,那么返回错误,以便重新调整图像大小

if (pvi.bmiHeader.biWidth <> FImageWidth) or

(abs(pvi.bmiHeader.biHeight) <> FImageHeight) then

begin

Result := E_INVALIDARG;

Exit;

end;

//不接受负高度,超出屏幕外的不支持

if (pvi.bmiHeader.biHeight < 0) then

begin

Result := E_INVALIDARG;

Exit;

end;

Result := S_OK; //接受该格式

end;

// DecideBufferSize:在视频格式协商好后,每次都必须调用它,确定需要传输的的内存大小

function TBCPushPinDesktop.DecideBufferSize(Allocator: IMemAllocator;Properties: PAllocatorProperties): HRESULT;

var

pvi: PVIDEOINFOHEADER;

Actual: ALLOCATOR_PROPERTIES;

begin

if (Allocator = nil) or (Properties = nil) then

begin

Result := E_POINTER;

Exit;

end;

FFilter.StateLock.Lock;

try

pvi := AMMediaType.pbFormat; //来自TBasePin接口的AMMediaType

Properties.cBuffers := 1; //内存块数量

Properties.cbBuffer := pvi.bmiHeader.biSizeImage; //内存块大小

Assert(Properties.cbBuffer <> 0); //确保该cbBuffer<>0,否则会引发异常

//通过allocator分配查询我们需要的Sample内存大小

Result := Allocator.SetProperties(Properties^, Actual);

if Failed(Result) then Exit;

//实际需要的分配的内存和属性中定义的不匹配

if (Actual.cbBuffer < Properties.cbBuffer) then

begin

Result := E_FAIL;

Exit;

end;

//确保我们的实际内存块数量为1

Assert(Actual.cBuffers = 1);

Result := S_OK;

finally

FFilter.StateLock.UnLock;

end;

end;

// SetMediaType,在两个Filter之间协商媒体类型时候,调用该函数

function TBCPushPinDesktop.SetMediaType(MediaType: PAMMediaType): HRESULT;

var

pvi: PVIDEOINFOHEADER;

begin

FFilter.StateLock.Lock;

try

//通过基类传递设置

Result := inherited SetMediaType(MediaType);

if Succeeded(Result) then

begin

pvi := AMMediaType.pbFormat;

if (pvi = nil) then

begin

Result := E_UNEXPECTED;

Exit;

end;

// 8-bit palettized,

// RGB565, RGB555,

// RGB24,

// RGB32

if pvi.bmiHeader.biBitCount in [8, 16, 24, 32] then

begin

//保存当前设定的媒体参数

FMediaType := MediaType^;

FCurrentBitDepth := pvi.bmiHeader.biBitCount;

end else

begin

//除此之外不支持其它媒体类型

Assert(False);

Result := E_INVALIDARG;

end;

end;

finally

FFilter.StateLock.UnLock;

end;

end;

//FillBuffer是在每次采集视频数据后调用,把数据写入到Stream中,传递给下一个Filter

//这个函数中为虚抽象函数,所以必须实现代码完成实际的视频数据填充,以便下传

function TBCPushPinDesktop.FillBuffer(Sample: IMediaSample): HResult;

var

pData: PByte;

cbData: Longint;

hDib: HBitmap;

pvih: PVIDEOINFOHEADER;

Start, Stop: REFERENCE_TIME;

function min(v1, v2: DWord): DWord;

begin

if v1 <= v2 then

Result := v1

else

Result := v2;

end;

begin

if (Sample = nil) then

begin

Result := E_POINTER;

Exit;

end;

FSharedState.Lock;

try

//获取Sample中视频数据内存指针(PData获取)

Sample.GetPointer(pData);

cbData := Sample.GetSize;

//确认我们将要访问的视频格式,如果不合格将出现异常

Assert(IsEqualGUID(AMMediaType.formattype, FORMAT_VideoInfo));

pvih := AMMediaType.pbFormat;

//复制DIB位图数据到输出Buffer

//如果Sample的字节数大于真实图像字节,就限定复制的字节

pVih.bmiHeader.biSizeImage := min(pVih.bmiHeader.biSizeImage, cbData);

hDib := CopyScreenToBitmap(FScreenRect, pData, @pVih.bmiHeader);

if (hDib <> 0) then DeleteObject(hDib);

//设置时间戳,可以给帧率回调函数使用

//如果这个是用AVI格式写的,那么我们就需要配置AVI Mux Filter 来设定每帧的平均时间

//当前时间

Start := FFrameNumber * FFrameLength;

Stop := Start + FFrameLength;

Sample.SetTime(@Start, @Stop);

Inc(FFrameNumber);

//对于没有压缩的帧,都要设置为True,当作关键帧对待

Sample.SetSyncPoint(True);

Result := S_OK;

finally

FSharedState.UnLock;

end;

end;

//返回质量控制,由于这时源头,所以可以收到来自render之间的各个Filter的Notify,

//最终反应在Filter(来自哪个),Q质量控制参数,可以通过这两个参数来调整帧率和质量

function TBCPushPinDesktop.Notify(Filter: IBaseFilter; q: TQuality): HRESULT;

begin

Result := E_FAIL;

end;

{

{$EXTERNALSYM CLSID_CVidCapClassManager} //BaseFilter目录类型

//CLSID_LegacyAmFilterCategory: TGUID = (D1:$083863F1;D2:$70DE;D3:$11D0;D4:($BD,$40,$00,$A0,$C9,$11,$CE,$86));

}

initialization

TBCClassFactory.CreateFilter(TBCPushSourceDesktop, PushDesktopName,

CLSID_PushSourceDesktop, CLSID_LegacyAmFilterCategory,

MERIT_DO_NOT_USE, 1, @sudOutputPinDesktop

);

end.

//由FillBuffer先填充Sample信息,然后由DecideBufferSize来真实的为视频数据分配内存,供下级Filter使用

//加载顺序由下级Filter的InputPin接口调用本OutPutPin接口的GetMediaType,

//然后调用OutPutPin接口的SetMediaType设定媒体格式,

//调用DecideBufferSize,协商内存大小

//启动后,不断调用FillBuffer填充Sample