我的问题是:我已经设置了照相机在Android和通过使用onPreviewFrame监听哪个经过我包含在默认机器人YUV格式的图像数据的字节[]数组(设备不支持R5G6B5-接收预览数据格式)。 每个像素由12位,这使得事情有点棘手的。 现在我想要做的是YUV数据转换成ARGB数据,以便做图像处理它。 这必须用的renderScript做,以保持较高的性能。
我的想法是通过两个像素中的一个元素(这将是24比特= 3个字节),然后返回两个ARGB像素。 问题是,在一个的renderScript u8_3(一个3维8位矢量)被存储在32位,这意味着最后8位未使用。 但图像数据复制到分配时,所有的32位的使用,所以最后8位迷路。 即使我使用一个32位的输入数据,最后8位是无用的,因为他们是唯一的2/3像素。 当定义一个元素组成的3字节阵列,它实际上具有3个字节的实际尺寸。 但随后的Allocation.copyFrom() - 方法不填充在分配用数据,argueing它不必须被填充有字节[]正确的数据类型。
该文件的renderScript状态,有一个ScriptIntrinsicYuvToRGB应该做的正是在API级别17.但实际上类不存在。 我已经下载API等级17,即使它似乎并没有被下载了。 有没有人有任何关于它的信息? 有谁曾经尝试了ScriptIntrinsic?
所以在最后我的问题是:如何将相机数据转换成ARGB数据的快速,硬件加速?
这是如何做到这一点的Dalvik虚拟机(找到的代码某个地方,它的工作原理):
@SuppressWarnings("unused")
private void decodeYUV420SP(int[] rgb, byte[] yuv420sp, int width, int height) {
final int frameSize = width * height;
for (int j = 0, yp = 0; j < height; j++) {
int uvp = frameSize + (j >> 1) * width, u = 0, v = 0;
for (int i = 0; i < width; i++, yp++) {
int y = (0xff & ((int) yuv420sp[yp])) - 16;
if (y < 0)
y = 0;
if ((i & 1) == 0) {
v = (0xff & yuv420sp[uvp++]) - 128;
u = (0xff & yuv420sp[uvp++]) - 128;
}
int y1192 = 1192 * y;
int r = (y1192 + 1634 * v);
int g = (y1192 - 833 * v - 400 * u);
int b = (y1192 + 2066 * u);
if (r < 0)
r = 0;
else if (r > 262143)
r = 262143;
if (g < 0)
g = 0;
else if (g > 262143)
g = 262143;
if (b < 0)
b = 0;
else if (b > 262143)
b = 262143;
rgb[yp] = 0xff000000 | ((r << 6) & 0xff0000) | ((g >> 2) & 0xff00) | ((b >> 10) & 0xff);
}
}
}
我敢肯定,你会发现LivePreview测试软件的有趣......这是在最新的果冻豆(MR1)的Android源代码的一部分。 它实现了一个摄像头预览和使用ScriptIntrinsicYuvToRgb的预览数据用的renderScript转换。 你可以在这里在线浏览源:
LivePreview
我是不是能够得到运行ScriptInstrinsicYuvToRgb,所以我决定写我自己的RS解决方案。
这里的准备脚本(名为yuv.rs):
#pragma version(1)
#pragma rs java_package_name(com.package.name)
rs_allocation gIn;
int width;
int height;
int frameSize;
void yuvToRgb(const uchar *v_in, uchar4 *v_out, const void *usrData, uint32_t x, uint32_t y) {
uchar yp = rsGetElementAtYuv_uchar_Y(gIn, x, y) & 0xFF;
int index = frameSize + (x & (~1)) + (( y>>1) * width );
int v = (int)( rsGetElementAt_uchar(gIn, index) & 0xFF ) -128;
int u = (int)( rsGetElementAt_uchar(gIn, index+1) & 0xFF ) -128;
int r = (int) (1.164f * yp + 1.596f * v );
int g = (int) (1.164f * yp - 0.813f * v - 0.391f * u);
int b = (int) (1.164f * yp + 2.018f * u );
r = r>255? 255 : r<0 ? 0 : r;
g = g>255? 255 : g<0 ? 0 : g;
b = b>255? 255 : b<0 ? 0 : b;
uchar4 res4;
res4.r = (uchar)r;
res4.g = (uchar)g;
res4.b = (uchar)b;
res4.a = 0xFF;
*v_out = res4;
}
不要忘了相机预览格式设置为NV21:
Parameters cameraParameters = camera.getParameters();
cameraParameters.setPreviewFormat(ImageFormat.NV21);
// Other camera init stuff: preview size, framerate, etc.
camera.setParameters(cameraParameters);
分配初始化和脚本的使用:
// Somewhere in initialization section
// w and h are variables for selected camera preview size
rs = RenderScript.create(this);
Type.Builder tbIn = new Type.Builder(rs, Element.U8(rs));
tbIn.setX(w);
tbIn.setY(h);
tbIn.setYuvFormat(ImageFormat.NV21);
Type.Builder tbOut = new Type.Builder(rs, Element.RGBA_8888(rs));
tbOut.setX(w);
tbOut.setY(h);
inData = Allocation.createTyped(rs, tbIn.create(), Allocation.MipmapControl.MIPMAP_NONE, Allocation.USAGE_SCRIPT & Allocation.USAGE_SHARED);
outData = Allocation.createTyped(rs, tbOut.create(), Allocation.MipmapControl.MIPMAP_NONE, Allocation.USAGE_SCRIPT & Allocation.USAGE_SHARED);
outputBitmap = Bitmap.createBitmap(w, h, Bitmap.Config.ARGB_8888);
yuvScript = new ScriptC_yuv(rs);
yuvScript.set_gIn(inData);
yuvScript.set_width(w);
yuvScript.set_height(h);
yuvScript.set_frameSize(previewSize);
//.....
相机回调方法:
public void onPreviewFrame(byte[] data, Camera camera) {
// In your camera callback, data
inData.copyFrom(data);
yuvScript.forEach_yuvToRgb(inData, outData);
outData.copyTo(outputBitmap);
// draw your bitmap where you want to
// .....
}
对于任何人谁不知道,现在的renderScript在Android支持库,包括内部函数。
http://android-developers.blogspot.com.au/2013/09/renderscript-in-android-support-library.html
http://android-developers.blogspot.com.au/2013/08/renderscript-intrinsics.html