Các nhà nghiên cứu tại Đại học Washington (UW - Mỹ) gần đây đã chứng minh ảnh động 3D của diễn viên Tom Hanks, Daniel Craig và một số nhân vật nổi tiếng khác có thể được tạo ra bằng cách ghép các ảnh tĩnh và khẩu hình miệng lấy từ internet. Hơn nữa, họ còn cho thấy cách các thuật toán của mình có thể khiến những hình ảnh kỹ thuật số trở nên sinh động, qua việc dựng nên các gương mặt đang nói những điều đang thật sự được nói bởi một người khác.
Tất cả những thành quả thú vị nói trên được hình thành nhờ công nghệ tái thiết khuôn mặt 3D, theo dõi, căn chỉnh, mô phỏng bố cục; vốn được phát triển bởi nhóm nghiên cứu dẫn đầu bởi Ira Kemelmacher-Shlizerman - trợ lý giáo sư khoa học máy tính và kỹ thuật, đang công tác tại UW. Tiến bộ mới nhất phải kể đến của nhóm nghiên cứu bao gồm khả năng chuyển các cách thức diễn đạt lời nói tiêu biêu của một người, lên một cá nhân khác. Chẳng hạn như trong video demo của các nhà khoa học: "áp dụng" phong cách của cựu Tổng thống Mỹ - George W. Bush lên mặt của các chính trị gia và những người nổi tiếng khác.
Tất cả những thành quả thú vị nói trên được hình thành nhờ công nghệ tái thiết khuôn mặt 3D.
Được biết, thuật toán được phát triển bởi các nhà nghiên cứu Đại học Washington khai thác tối thiểu 200 ảnh chụp lấy từ internet, trong các tình huống khác nhau. Quá trình đó được gọi là "học tập từ tự nhiên". Có thể một số người sẽ nghĩ ngay đến các ý đồ xấu, có thể thực hiện dễ dàng bở công nghệ mới này. Tuy nhiên, theo các nhà nghiên cứu, mục tiêu ban đầu của họ hoàn toàn không "bất chính" như chúng ta nghĩ. Các chuyên gia cho biết họ tạo ra phương pháp này với hy vọng cho phép các thành viên trong gia đình tương tác với người thân của họ, những người không phải lúc nào cũng có thể gặp được, bằng cách tạo ra một mô hình kỹ thuật số ba chiều của họ, từ các album ảnh gia đình, video hoặc các nội dung khác.
Khi công nghệ thực tế ảo đang ngày càng phát triển, các nhà khoa học có lẽ đang tiến tới một giải pháp 3D có thể sẽ thay thế các phương tiện giao tiếp 2D hiện tại như Skype hay FaceTime. "Có thể một ngày nào đó, chỉ cần đeo cặp kính thực tế ảo vào và bạn đã có thể nhìn thấy người mẹ thân yêu của mình đang ngồi trên chiếc ghế bành quen thuộc", Kemelmacher-Shlizerman nói.
Bà Kemelmacher-Shlizerman - người dẫn đầu nhóm nghiên cứu tại Đại học Washington. (Ảnh: gannett-cdn).
Bên cạnh đó, các nhà nghiên cứu tại UW còn cho rằng công nghệ của họ còn có thể ứng dụng vào lĩnh vực giải trí, nhờ việc thay thế quy trình tạo ra các nhân vật kỹ thuật số trong phim. Ví dụ, để tạo ra một nhân vật hư cấu như Benjamin Button (trong phim The Curious Case of Benjamin Button), mọi góc độ và chuyển động của diễn viên chính Brad Pitt đều phải được ghi lại một cách có kiểm soát. Những hình ảnh sau đó được chỉnh sửa và ghép với nhau để tạo ra nhân vật hoàn chỉnh.
Dự kiến trong tuần này, nhóm nghiên cứu sẽ trình bày chi tiết dự án của họ tại Hội nghị quốc tế về Thị giác máy tính (Computer Vision) diễn ra ở Chile.