中等职业学校数字化校园建设的探讨(11)
作者:佚名; 更新时间:2016-02-13

   沈向洋等人提出了一种根据IBR中所使用到的几何信息多寡对IBR技术进行分类的方法。他们把各种IBR技术分为从完全使用几何信息的纹理映射技术(已经属于传统图形学范畴)、部分使用几何信息的视图插值、变形等技术,到完全不使用任何几何信息的Light Field等技术,组成一条连续的谱带,从而在基于几何的传统图形学和基于图像的绘制技术之间搭起了一座桥梁。

   本文中,考虑到数据表示方式在IBR技术中的核心地位,对IBR技术是否利用几何信息,是否适于真实场景应用起着本质上的决定作用,因此本文将IBR技术的数据表示方式作为IBR技术的分类标准。

   IBR技术以数据表示方式分类,有如下三类:几何表示方式的IBR技术,图像表示方式的IBR技术,和全光函数表示方式的IBR技术。

1)几何表示方式的IBR技术

   在几何表示方式中,IBR数据被组织成传统计算机图形学当中的元素,如点、面、几何体等,这类方法最接近于传统图形学。

   采用几何表示方式的IBR技术所需要的显示方法和传统图形学相似,差别只在于它的模型建立主要以图像数据作为依据。因此该技术一般只应用于真实场景,已经有几何模型的计算机合成场景没有必要使用这种IBR技术。或者说,在计算机合成场景中使用几何表示方式的IBR技术就和传统计算机图形学中的建模和绘制方法没有区别。

   从场景建立几何模型可以有很多办法,因为基于几何的IBR技术对于模型的重视,有些分类法把基于图像的建模(IBM)和基于图像的绘制(IBR)分开,前者专指这种建立几何模型的过程。根据基于几何表示方式所用几何元素的不同,又可以把基于几何表示方式的IBR技术分为以下几类:基于几何体表示的IBR技术、基于层或者面表示的IBR技术、基于几何点表示的IBR技术。几种几何表示方式可以统一起来,根据场景的性质和视点距离场景的远近而选择采用不同的几何表示方式。在距离非常远时,场景可以用一幅背景图像表示。随着场景物体的接近,依次可以采取分层的场景表示,LDI图像表示,最近的场景可以采取几何体表示。

2)图像表示方式的IBR技术

   这一类IBR技术并不像几何表示方式那样,建立在场景的完全几何信息基础。它把原始数据图像看成是象素之间相互有对应关系的图像,并利用这种对应段上关系,通过二维的图像变换(2D Warping)来生成新视图。知道两幅图像象素点之间的对应关系后,很自然的一个想法就是通过插值得到在两幅图像中间位置的视点上某一象素点应该处的位置。其中用到的一项重要技术是图像变形(Image Morphing)。

   图像变形广泛地用于生成两幅图像之间的过渡图像。这项技术一般分为两个步骤:首先是通过手上指定或者其他方法,建立开始图像和结束图像之间一些点或者线条之间的对应关系(稀疏对应),然后山计算机通过计算生成图像上每一个点的映射(稠密对应)并进行插值。这种映射同时从两个方向进行,也就是说,各自从开始图像和结束图像出发,向对方进行映射和插值演变。中间图像由这两个方向的图像混合而成。这是一项很有实用意义的技术,美国著名流行歌星Michael,Jackson的“Black or White”MTV中那段有趣的“变脸”镜头就是用这项技术合成的。如果把起始图像和结束图像定为漫游过程中拍摄的两幅图像,那么就.可以利用这项技术生成在两幅图像拍摄点中间的路径上,观察到的视图。重要的图像表示方式的IBR技术主要有这几种:视图插值(View Interpolation),视图变形(View Morphing)和迁移绘制(Transfer Method)。这三种技术之间的关系是,基本上按照这个排列顺序,前一种.可以看成是后一种的特例。

3)全光函数表示方式的IBR技术

   全光函数表示方式的IBR技术或许是最接近“基于图像的绘制”本来意义的IBR技术。与前面两种或多或少带着基于几何绘制色彩的IBR技术不同,在全视函数的观点看,重要的不是图像代表的是什么几何物体,而是代表着怎样的光线。拍摄的过程是采集光线的过程;显示的过程是根据新的视点,从已经采集到的光线集合中去抽取所对应的光线的过程。所谓“全光函数”,就是整个场景空间光线的全集。

   1991年,Adelson和Bergen提出了“全光函数”的概念。Adelson和Bergen认为,.丁以设想一个多维函数,沿着这个函数的一个或者几个维度变化而造成的辐射能量变化就表达了这整个空间的辐射能量分布结构。用这个函数来表达空间的辐射能量分布,并推导因为运动、颜色、观察方向变化而引起的辐射能量分布变化。

   如果在空间的某个地方拍摄一张黑白照片,那么得到的是一个二维的图像,可以用一个二维坐标表示,(x,y)(笛卡儿坐标下的象素坐标)。这个二维图像如果是彩色的,就要在函数中加上一个光线波长的变量入。如果用摄像机来拍摄,记录一系列运动的图像,那么要表达这种运动图像就需要一个4维函数,加上时间变量t。最后,如果按照定义,需要表示整个空间中的能量分布,就应该在空间的每一个点都有这样一部摄像机,同时记录所有的光线。这样,就又要加上三维空间坐标来标识摄像机的位置,最终得到了这个7维的全视函数。全视函数是空间中光线全集的表示。因为全视函数的定义本身就包含了“在任意地点,任意时间看见的任意色彩(波长)图像”。特定视点拍摄到的图像只是给定这个函数的某些参数后从中提取出来的一个子集。如果本文确实能够得到这个函数,那只要从中抽取合适的光线就.IJ以了。不幸的是实际上本文既无法从理论上推导出这个函数,也无法从实际场景中采集到这个完全的光线集合一如果用自拍拍摄的方法去采样这个函数包含的所有光线,那么首先是不.IJ能有这样的设备能采集“任意时间,地点,任意波长,任意观察方向”的光线,即使能够,那么采集到的数据量也会庞大到无法控制的地步。

   于是,后来的研究者们提出各种采样方法,获取全视函数的一个光线子集,通过对该子集进行重采样达到恢复或者至少是拟合全视函数另一个子集来进行基于图像的绘制。如光场Light Field,流明技术Pluviograph Technique,全光拼图Pleonastic Stitching,同心拼图Concentric Mosaics},和全景图Panorama Mosaics(Cylindrical, Spherical)等技术均为基于全光函数的IBR技术推广。全景图像是本文研究的重点。

3.1.3基于图像绘制的全景图像

   通过数据手套、数据衣服、头盔显示器等专用设备可以得到较为理想的虚拟现实系统,但这样的虚拟环境耗资很大,难以普及。如何用较低的耗费建立较好的虚拟环境,一直吸引着人们的注意力。全景图像就是一种耗资低廉、应用广泛的虚拟现实技术。

   观察者可以通过转动眼球、头部和身体来观察包括上下前后左右的所有方向,这上下前后左右的所有图像信息就构成了一幅全景图像。它实际上表示的是观察者在某一视点进行观察时,视点不变而观察方向改变所能观察到的全部场景可以进一步把全景图像的概念推广为视点空间(View-Point Space)视点空间反映了观察者在虚拟环境中某处所能观察到的不同细节程度的场景空间,观察者可以在视点空间进行360度环视、俯视、仰视以及焦距变换等多种方式的观察。可以认为视点空间由不同焦距的一组全景图像按照其焦距关系构成。

   通常的照片以及计算机屏幕显示的图像通常只反映了全景图像的某一个矩形局部。因此,普通照片和计算机屏幕显示的图像都难以使人产生身临其境的沉浸感。利用全景图像可以建立供用户观察的虚拟环境,通过在全景图像中的漫游可以使用户能够主动地从不同的观察点和方向了解环境。因此全景图像的应用很广,现在正越来越多地应用于城市风光和各种场馆的介绍,远程再现、军事训练、教育、展览、旅游、自动导航、游戏、监视、娱乐、房地产、电视会议和医学应用中。如:可以通过全景图像来制作虚拟旅游,由用户自己控制所要观看的旅游景点的各个局部和细节。又如:通过全景图像来模拟潜水艇潜望镜所观察到的场景,从而进行较为真实的模拟训练。再如:可以通过全景图像来模拟人们难以进入的空间,如核反应堆内部,心脏内部等。

核心期刊快速发表
Copyright@2000-2030 论文期刊网 Corporation All Rights Reserved.
《中华人民共和国信息产业部》备案号:ICP备07016076号;《公安部》备案号:33010402003207
本网站专业、正规提供职称论文发表和写作指导服务,并收录了海量免费论文和数百个经国家新闻出版总署审批过的具有国内统一CN刊号与国际标准ISSN刊号的合作期刊,供诸位正确选择和阅读参考,免费论文版权归原作者所有,谨防侵权。联系邮箱:256081@163.com