【问题标题】:Get color of touched pixel from camera preview从相机预览中获取触摸像素的颜色
【发布时间】:2014-03-14 16:35:09
【问题描述】:

我创建了一个打开相机的演示应用程序。现在我想在用户触摸实时相机预览时获取像素的颜色。

我已经尝试通过覆盖onTouchEvent 并且我在 x,y but 中的getting the position of pixel 中成功了我没有从它那里得到RGB color value。它总是显示0,0,0

欢迎所有建议,包括实现相同功能的任何替代方法。 [Excluding OpenCv because it requires to install OpenCvManager apk also to support my application]

代码:

    public class CameraPreview extends SurfaceView implements SurfaceHolder.Callback, PreviewCallback {

    private Camera camera;
    private SurfaceHolder holder;
    int[] myPixels;

    public CameraPreview(Context context, AttributeSet attrs, int defStyle) {
        super(context, attrs, defStyle);
    }

    public CameraPreview(Context context, AttributeSet attrs) {
        super(context, attrs);
    }

    public CameraPreview(Context context) {
        super(context);
    }

    public void init(Camera camera) {
        this.camera = camera;
        initSurfaceHolder();
    }

    @SuppressWarnings("deprecation") // needed for < 3.0
    private void initSurfaceHolder() {
        holder = getHolder();
        holder.addCallback(this);
        holder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);
    }

    @Override
    public void surfaceCreated(SurfaceHolder holder) {
        initCamera(holder);
    }

    private void initCamera(SurfaceHolder holder) {
        try {
            camera.setPreviewDisplay(holder);
            camera.getParameters().setPreviewFormat(ImageFormat.NV21);
            camera.setPreviewCallback(this);
            camera.startPreview();
        } catch (Exception e) {
            Log.d("Error setting camera preview", e);
        }
    }

    @Override
    public void surfaceChanged(SurfaceHolder holder, int format, int width, int height) {
    }

    @Override
    public void surfaceDestroyed(SurfaceHolder holder) {
    }

    @Override
    public boolean onTouchEvent(MotionEvent event) {
        if(event.getAction() == MotionEvent.ACTION_DOWN)
        {
            android.util.Log.d("touched", "called");
/*          int x = (int)event.getX();
            int y = (int)event.getY();

            android.util.Log.d("touched pixel :", x+" "+y);

            setDrawingCacheEnabled(true);
            buildDrawingCache();
            Bitmap mBmp = getDrawingCache();

            int pixel = mBmp.getPixel(x, y);
            int redValue = Color.red(pixel);
            int blueValue = Color.blue(pixel);
            int greenValue = Color.green(pixel);        

            android.util.Log.d("touched pixel color :", redValue+" "+greenValue+" "+blueValue);
            android.util.Log.d("touched pixel color from preview:", redValue+" "+greenValue+" "+blueValue);
*/
            //how to get particular pixel from myPixels[]
        }
        return false;
    }

    @Override
    public void onPreviewFrame(byte[] data, Camera camera) {

        android.util.Log.d("onPreviewFrame", "called");

         int frameHeight = camera.getParameters().getPreviewSize().height;
            int frameWidth = camera.getParameters().getPreviewSize().width;
            // number of pixels//transforms NV21 pixel data into RGB pixels  
            int rgb[] = new int[frameWidth * frameHeight];
            // convertion
            myPixels = decodeYUV420SP(rgb, data, frameWidth, frameHeight);

    }



    public int[] decodeYUV420SP(int[] rgb, byte[] yuv420sp, int width, int height) {

        // here we're using our own internal PImage attributes
        final int frameSize = width * height;

        for (int j = 0, yp = 0; j < height; j++) {
                int uvp = frameSize + (j >> 1) * width, u = 0, v = 0;
                for (int i = 0; i < width; i++, yp++) {
                        int y = (0xff & ((int) yuv420sp[yp])) - 16;
                        if (y < 0)
                                y = 0;
                        if ((i & 1) == 0) {
                                v = (0xff & yuv420sp[uvp++]) - 128;
                                u = (0xff & yuv420sp[uvp++]) - 128;
                        }

                        int y1192 = 1192 * y;
                        int r = (y1192 + 1634 * v);
                        int g = (y1192 - 833 * v - 400 * u);
                        int b = (y1192 + 2066 * u);

                        if (r < 0)
                                r = 0;
                        else if (r > 262143)
                                r = 262143;
                        if (g < 0)
                                g = 0;
                        else if (g > 262143)
                                g = 262143;
                        if (b < 0)
                                b = 0;
                        else if (b > 262143)
                                b = 262143;

                        // use interal buffer instead of pixels for UX reasons
                        rgb[yp] = 0xff000000 | ((r << 6) & 0xff0000)
                                        | ((g >> 2) & 0xff00) | ((b >> 10) & 0xff);
                }
        }

        return rgb;
}


}

【问题讨论】:

  • 尝试从这里修改代码stackoverflow.com/q/15918180/1069068
  • @RaghavSood:我已经经历过了,但据我所知,方法onPreviewFrame会连续执行。在设备上不会很难吗?是的,我已将其包含在我的代码中,如何从数组 myPixels 中获取特定的像素颜色?

标签: android image-processing camera surfaceview


【解决方案1】:

我采用了不同的方法来解决它。我一有空就会发布代码。

Algorithm :
  • 在实时摄像头上创建叠加层
  • 当用户触摸时,使用从实时摄像头获取的最新 YUV 缓冲流的 RGB 数据更新叠加层
  • 从叠加图像中选择 RGB 颜色

【讨论】:

    【解决方案2】:

    似乎 myPixels 是 2D 数据的 1D 表示(宽 x 高)。

    这意味着 myPixels 的长度为 (width * height)。

    假设像素为 (x,y)

    int idx = ( height * y ) + x;
    
    int color = myPixels[idx];
    

    通过以上信息,您可以修改decodeYUV420SP 方法以仅输出特定像素的颜色。

    【讨论】:

    • 它没有提供预期的颜色作为输出。因为相机预览的SurfaceViewframeSize的widthxheight不同。
    • 您知道实现此目的的其他方法吗?我什至不介意使用任何 3rd 方库
    • 我没有遇到任何解决这个问题的库。我在想一些偏移量 (x,y) 会解决这个问题。但是还没想通
    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 2019-09-02
    • 2016-05-07
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多