textures相关内容
问题 我从事开源游戏 torcs (http://torcs.sourceforge.net/).游戏的图形管线仍然使用OpenGL 1.3的固定功能管线(FFP). 我尝试将游戏场景渲染到 FBO(帧缓冲对象)中的纹理,以便对渲染的纹理进行一些后期处理.我使用 OpenGL 3.3.在我的机器上. 目前我已经在 GL_COLOR_ATTACHMENT0&1 处设置了带有附加纹理
..
我想指定渲染精灵数组时要使用的纹理.所以我在它们的顶点数据中放置了一个纹理索引,并将它作为一个平面值从我的顶点着色器传递到我的片段着色器,但不能像预期的那样使用它来索引采样器数组,因为编译器认为它是“非-常数".相反,我不得不求助于下面令人作呕的代码.谁能解释一下这里发生了什么? const int numTextures = 2;统一的 sampler2D 纹理 [numTextures];在
..
我使用一系列 PNG 图像作为精灵在平面上为 Unity 中的增强现实应用程序创建动画.PNG 图像作为纹理加载,然后将纹理应用到平面以创建跟踪增强现实目标的动画序列. 这是附加到平面并控制动画序列的脚本. 文件 PNGSequence.js #pragma strictvar tecture : 纹理 [];var changeInterval : float = 0.06;var
..
我想使用 OpenCV 作为 OpenGL 纹理加载图像(jpg 和 png). 这是我将图像加载到 OpenGL 的方法: glEnable(GL_TEXTURE_2D);textureData = loadTextureData("textures/trashbin.png");cv::Mat image = cv::imread("textures/trashbin.png");如果
..
我正在使用 libgdx 构建一个小 Android 游戏.现在,我在桌面项目文件夹和 Android 项目文件夹中有游戏资产的副本.出于某种奇怪的原因,我必须在两个版本中以不同的方式访问这些文件. 这在桌面应用程序中工作正常,但在 android 应用程序中给了我一个 FileNotFound 异常: Texture texture = new Texture(Gdx.files.int
..
我是 AndEngine 的新手. 出于某种原因,我必须从 Drawable 变量创建一个 TextureRegion. 不知道有没有可能, 但我的代码不起作用... public class DrawableTextureSource 实现 ITextureSource {私有最终 int mWidth;私人最终 int mHeight;私有最终 Drawable mDraw
..
我正在尝试从纹理图集中绘制由较小瓷砖组成的基本 2d 地面网格(注意 1 像素透明边框): 我使用以下代码将图块渲染为纹理四边形: glEnable(GL_TEXTURE_2D);glBindTexture(GL_TEXTURE_2D, m_texture);glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);g
..
我想制作这样的波浪变形效果: 但我只能创建正常的正弦波. 这是我的片段着色器: precision mediump float;不同的 vec2 v_texCoord;统一的 sampler2D s_baseMap;vec2 正弦波(vec2 p){浮动圆周率 = 3.14159;浮动 A = 0.15;浮动 w = 10.0 * pi;浮动 t = 30.0*pi/180.0;浮动
..
我目前正在开发 2D 等轴测图编辑器.我显示包含点和纹理的实体(立方体,玩家).每个立方体由 12 个点组成.(12 个点,但在 sfml(sf::VertexArray) 显示时作为 4 个点的 3 个边处理). (我知道我有时会包含一些“.cpp",我的 IDE(visual studio)有问题,我正在尝试解决,请不要在意.) main.cpp #pragma once#i
..
我想知道如何将不同的纹理绑定到不同的模型或如何改进我的代码. 我的代码: public void onSurfaceCreated(GL10 gl, EGLConfig config) {gl.glLoadIdentity();GLU.gluPerspective(gl, 25.0f, (view.getWidth() * 1f)/view.getHeight(), 1, 100);GLU
..
我从 WorldForge 下载了模型,我可以将地精的网格引入我的场景,但纹理和材质不会渲染: 我使用 eclipse 并且添加的文件如下所示: 我在代码中添加妖精的方式是这样的 空间模型3 = assetManager.loadModel("objects/creatures/goblin/goblin.mesh.xml");model3.setLocalTranslation(-
..
我们可以使用 Canvas (HTML5) 3D Sphere 绑定纹理吗? 我指的是这个例子 - http://www.bitstorm.it/blog/en/2011/05/3d-sphere-html5-canvas/ 谢谢, 编辑: 备用链接 - http://sebleedelisle.com/2011/02/html5-canvas-3d-particle
..
我从 WorldForge 下载了模型,我可以将地精的网格引入我的场景,但纹理和材质不会渲染: 我使用 eclipse 并且添加的文件如下所示: 我在代码中添加妖精的方式是这样的 空间模型3 = assetManager.loadModel("objects/creatures/goblin/goblin.mesh.xml");model3.setLocalTranslation(-
..
所以我一直在网上寻找这个问题的答案,但我似乎遗漏了一些东西. 我有一个在 XNA 4.0 中动态创建 3D 地形的小项目,但我希望能够在地形上绘制一个圆(或任何其他形状,但让我们先画一个圆).现在我已经阅读了一些关于“投影纹理"的内容,但我承认我在着色器语言方面完全不知所措. 这个想法是我可以(动态地)创建一个基本形状,比如一个直径为 2 个“单位"的圆,然后在地形上绘制它,作为光标所
..
如何在 Windows 中使用 DirectX 以 3D 形式呈现 BMP、JPEG 或 PNG 图像文件?(例如,假设我想渲染四个图像,使它们看起来像一个小隔间之类的东西.) 我已经看到使用 Java OpenGL 库轻松完成此操作(我认为是 JME?),但似乎 DirectX 需要纹理,并且不接收常规图像.:( 这是正确的吗?如果是这样,我如何以编程方式将其转换为纹理? 解决
..
说到 3D 动画,有很多我不熟悉的很多术语和概念(可能是附加到这个问题的第二个问题:有什么好书可以熟悉这些概念?).我不知道“UV"是什么(在 3D 渲染的上下文中),我也不熟悉将图像上的像素映射到网格上的点的工具. 我有以下图像由 360 度相机生成(它实际上是 HTML video 元素的输出): 我希望这张图片的中心是球体的“顶部",这张图片中圆的任何半径都是沿着球体从上到下的弧
..
我使用 1024x1024 纹理,它映射到 Unity3d 中的四边形.目前的目标平台是 PC 独立平台.这是它的外观: 您可以看到屏幕中物体的像素化和模糊程度,如何使其更具可读性并减少像素化? 导入设置、质量设置和关闭 mip-map 的场景截图 这里.纹理和四边形资产可以在此处找到. 解决方案 图像在我看来很好:它看起来像一个 3D 视频游戏. 请注意,1k 非常小,
..
所以在 WebGL 中,我可以存储最多 2 维的纹理 - 并在着色器中使用 texture2D(无论)读取它; 如果我想存储一个 3 维纹理,以便我可以在着色器上读取 3 维数据,我该怎么做? 这是我的想法 - 我想知道我是否正确地接近它: 在 JavaScript 中: var info = [];for (var x = 0; x 在着色器上: 统一采样器 data_
..
我希望能够像在本示例中一样导出 obj 文件 http://threejs.org/examples/#webgl_exporter_obj 但是,我想在 .mtl 纹理文件中导出带有相应纹理的 .obj 文件(我见过带有“usemtl someTextureNameFromMTL"的 obj 文件) 我看过这个问题但出口商似乎只出口网.我还发现 这个问题但只讨论进口商. 我想要
..
当输入几何体(例如球体网格)时,它的作用就像几何体不存在一样.从外面可以看到颜色和纹理.但是一旦我放大网格,属性就消失了. 如何使球体网格的颜色和纹理在网格内可见? 解决方案 mesh.material.side = THREE.DoubleSide; 或 mesh.material.side = THREE.BackSide; three.js r.62
..