Thực ra, ngay khi đã biết tất cả các thông số của camera thông qua camera calibration, chúng ta cũng không thể tính toán được "diện tích thực" của vật.
Bởi giữa 2 chiều ngang và dọc của hình.
-Thông số bên ngoài: là sự tương quan giữa tọa độ camera và tọa độ gốc (một tọa độ nào đó mà ta chon trước - quan trọng trong tracking hay mobile robot).
Như vậy, ta có thể thấy, sau khi calibrate camera, từ 1 điểm ảnh nào đó, ta chỉ có thể biết phương hướng của nó so với camera mà thôi, khoảng cách của nó so với camera không thể biết được nếu ta chỉ chụp 1 ảnh ở cùng 1 vị trí. Muốn có được khoảng cách giữa vật và camera, cách duy nhất là phải có 2 camera trở lên (các camera này đều đã được xác định thông số) đặt ở 2 (hoặc nhiều nếu nhiều camera) vị trí khác nhau (cái này gọi là stereo vision - mình đang đau khổ với nó đây

). Các vị trí tương quan của camera phải được xác định Việc xác định vị trí của vật thông qua vị trí tương quan đó và hướng của vật so với camera (thông qua vị trí của nó trên hình). Phần còn lại chỉ là bài toán hình học không gian mà thôi.
Nói tóm lại, nếu bạn muốn tính "diện tích thực tế" của vật, bạn phải làm nhiều công đoạn như vậy. Còn nếu bạn chỉ cần tính diện tích trên hình mà thôi thì có lẽ equation cũng nói khá kỹ rồi. Tuy nhiên, thực tế, những tool về xử lý ảnh đều có hàm này (đơn cử là tool OpenCV - bạn có thể tìm trên mạng - cái này mình đã dùng rồi, khá đơn giản và dễ dùng).
Còn cái phần Computer Vision, có thể em sẽ giúp anh Lâm trình bày cho, cũng có khá nhiều vấn đề hay ho,
