Chuyên mục  


robot-ai-tien-doan-va-cuoi-cung-luc-voi-nguoi-doi-dien-1711595638.jpg?w=0&h=0&q=100&dpr=1&fit=crop&s=ivuHcjN9LM1T367pGxCSsw
Robot AI tiên đoán và cười cùng lúc với người đối diện

Robot Emo có thể dự đoán biểu cảm và cười cùng lúc với người đối diện. Video: New Scientist

Con người đang dần quen với những robot có khả năng giao tiếp thành thạo bằng lời nói, một phần nhờ vào sự tiến bộ trong các mô hình ngôn ngữ lớn như ChatGPT, nhưng các kỹ năng giao tiếp phi ngôn ngữ của chúng, đặc biệt là nét mặt, vẫn còn kém xa. Việc thiết kế một robot không chỉ thể hiện được nhiều biểu cảm trên khuôn mặt mà còn biết thể hiện đúng lúc vô cùng khó.

Phòng thí nghiệm Máy móc Sáng tạo tại Trường Kỹ thuật thuộc Đại học Columbia, Mỹ, đã nghiên cứu vấn đề này suốt hơn 5 năm. Trong nghiên cứu mới trên tạp chí Science Robotics, nhóm chuyên gia tại đây đã giới thiệu Emo, một robot AI có thể tiên đoán các biểu cảm trên khuôn mặt con người và thực hiện cùng lúc với người đó, TechXplore hôm 27/3 đưa tin. Nó dự đoán nụ cười khoảng 840 mili giây trước khi người đối diện cười, sau đó cười cùng lúc.

Emo là robot giống đầu người với khuôn mặt trang bị 26 bộ truyền động cho phép thực hiện nhiều sắc thái biểu cảm. Đầu robot phủ một lớp da silicon mềm với hệ thống liên kết từ tính, giúp dễ dàng điều chỉnh và bảo trì nhanh chóng. Để có những tương tác sống động hơn, nhóm nghiên cứu tích hợp các camera độ phân giải cao vào con ngươi của mỗi mắt, cho phép Emo tương tác bằng mắt, một điều rất quan trọng trong giao tiếp phi ngôn ngữ.

Nhóm nghiên cứu phát triển hai mô hình AI. Mô hình thứ nhất dự đoán biểu cảm khuôn mặt người bằng cách phân tích những thay đổi tinh vi trên khuôn mặt đối diện, mô hình thứ hai tạo ra các lệnh vận động bằng cách sử dụng những biểu cảm tương ứng.

Để đào tạo robot cách biểu cảm, nhóm nghiên cứu đặt Emo trước camera và để nó thực hiện những cử động ngẫu nhiên. Sau vài giờ, robot học được mối quan hệ giữa biểu cảm khuôn mặt với các lệnh vận động - tương tự cách con người luyện tập biểu cảm khi nhìn vào gương. Nhóm nghiên cứu gọi đây là "tự làm mẫu" - tương tự với khả năng con người tưởng tượng ra mình trông như thế nào khi thực hiện một số biểu cảm nhất định.

Tiếp theo, nhóm nghiên cứu phát những video về biểu cảm khuôn mặt người để Emo quan sát từng khung hình. Sau quá trình đào tạo kéo dài nhiều giờ, Emo có thể tiên đoán biểu cảm bằng cách quan sát những thay đổi tinh vi của khuôn mặt khi một người bắt đầu có ý định mỉm cười.

"Tôi cho rằng dự đoán chính xác biểu cảm khuôn mặt người là một cuộc cách mạng trong lĩnh vực tương tác người - robot. Trước đây, robot không được thiết kế để xem xét biểu cảm của con người trong quá trình tương tác. Giờ đây, robot có thể tích hợp biểu cảm khuôn mặt để phản hồi", Yuhang Hu, nghiên cứu sinh tiến sĩ tại Phòng thí nghiệm Máy móc Sáng tạo, thành viên nhóm nghiên cứu, cho biết.

"Việc robot thực hiện những biểu cảm cùng lúc với con người theo thời gian thực không chỉ giúp nâng cao chất lượng tương tác mà cũng giúp xây dựng niềm tin giữa con người và robot. Trong tương lai, khi tương tác với robot, nó sẽ quan sát và diễn giải biểu cảm gương mặt của bạn, giống như một con người thực sự", Hu bổ sung.

Thu Thảo (Theo TechXplore)

Thông tin

Tổng hợp tin tự động tinmoi-247.com (r) © 2020