Robot học tập nhanh hơn con người - ẢNH: AFP/GETTY IMAGES

Kể từ khi bắt đầu nghiên cứu về robot, con người đã luôn muốn tạo ra những cỗ máy dựa trên hình ảnh của chính mình, từ những robot biết đi đứng cho đến các hệ thống biết suy nghĩ, tái tạo các giác quan cảm nhận mùi hương, hình ảnh và âm thanh chẳng khác nào con người. 

Theo Business Insider, dưới đây là 5 dự án AI cố gắng mô phỏng các giác quan của con người.

Robot nhìn thấy các vật thể trong suốt

Robot khó nhận diện các đồ vật trong suốt - ẢNH: AFP/GETTY IMAGES

Thị giác robot vẫn còn rất sơ khai, nhưng một số robot hiện nay đã có hệ thống tia hồng ngoại giúp chúng nhìn thấy các vật thể dựa trên hình dạng. Tuy nhiên, robot thường gặp khó khăn khi nhìn các vật trong suốt như chai thủy tinh, cốc nhựa vì cảm biến độ sâu của chúng bị phản chiếu lại trên các vật thể này, khiến chúng chỉ có thể nhận diện được bóng mờ của vật.  

Một nhóm các nhà nghiên cứu từ Đại học Carnegie Mellon (Mỹ) tạo ra một hệ thống giúp robot cải thiện khả năng nhìn robot nhìn các vật thể trong suốt. Họ kết hợp cảm biến độ sâu với một máy ảnh để ghi lại các sắc thái màu đỏ, xanh lục, xanh lam phản chiếu trên cạnh của vật thể, từ đó robot có thể xác định vị trí của vật nhờ nhìn thấy các vệt màu sắc mà camera ghi lại. Chỉ khi nhìn thấy vật thể, robot mới có thể dùng cánh tay cầm nắm đồ vật.

Máy trợ thính lọc giọng nói giữa tiếng ồn

Máy trợ thính - ẢNH CHỤP MÀN HÌNH

Các nhà nghiên cứu từ Đại học Carnegie Mellon cũng tạo ra một kho dữ liệu âm thanh và hình ảnh được số hóa. Thông qua đào tạo, hệ thống AI có thể xác định chính xác từng âm thanh từ kho dữ liệu này. 

Tuy robot vẫn xác định được các vật thể mà nó không nhìn thấy, nhưng nếu dùng khả năng nghe, nó có thể nắm bắt mọi thứ tốt hơn. Do đó, họ muốn phát triển công nghệ cho phép AI phân biệt giữa giọng nói và tiếng ồn.

Công ty Oticon chuyên sản xuất thiết bị trợ thính đang tìm cách chế tạo ốc tai điện tử cấy ghép vào cơ thể con người. Thuật toán bên trong các ốc tai này đã tiếp xúc với hàng triệu mẫu giọng nói không bị lẫn với tiếng ồn, nên chúng sẽ có khả năng tự tách giọng nói. Thiết bị của Oticon được kỳ vọng sẽ giúp những người khiếm thính lấy lại thính lực trong tương lai.

Robot đánh hơi mùi ga

Công nghệ này có thể dùng để phát hiện rò rỉ khí ga - ẢNH CHỤP MÀN HÌNH

Aryballe là công ty phần mềm AI đang phát triển hệ thống cảm biến sinh học và học máy có thể bắt chước khứu giác con người. Cảm biến của họ có thể ghi nhận các phân tử mùi trong không khí, mã hóa chúng thành dữ liệu. Hệ thống AI sẽ lấy dữ liệu đó, kết hợp với kho dữ liệu chứa hàng nghìn mùi khác nhau.

Sau khi tham chiếu dữ liệu thu thập được với dữ liệu có sẵn, hệ thống có thể xác định đó là mùi gì. Công nghệ này đặc biệt hữu dụng nếu kết hợp với các hệ thống nấu ăn, tự động tắt lò nướng trước khi thực phẩm bị cháy hoặc phát hiện rò rỉ khí ga.

Hệ thống nếm thử thực phẩm

Hệ thống Ai có thể nếm thử đồ ăn - ẢNH CHỤP MÀN HÌNH

Gastrograph AI là nền tảng của công ty Analytical Flavor Systems, có khả năng dự đoán cách con người phản ứng trước một món ăn mới, từ đó giúp nhà sản xuất và nhà tiếp thị có thể dự đoán sản phẩm đó sẽ nhận được phản ứng thế nào từ một thị trường cụ thể.

Hệ thống sử dụng dữ liệu của hàng nghìn người tiêu dùng đã đánh giá hàng nghìn sản phẩm thông qua ứng dụng di động, phân loại thành các thông số và danh mục khác nhau. Hệ thống tự học của AI có thể xác định hương vị nào sẽ hợp với từng nhóm đối tượng, khu vực cụ thể. Trên website riêng, công ty tuyên bố đã mô hình hóa hơn 1.000 hương vị để giúp các doanh nghiệp thực phẩm tạo ra công thức cho các sản phẩm đồ ăn. 

AI cảm nhận bề mặt

AI sẽ dần có khả năng xúc giác như con người - ẢNH CHỤP MÀN HÌNH

GelSight là công nghệ đang được các nhà nghiên cứu tại Phòng thí nghiệm Khoa học máy tính và AI của trường MIT phát triển. Công nghệ này dùng cảm biến độ sâu, cho phép các robot nhận biết hình dạng, kích cỡ, chất liệu của bề mặt mà chúng chạm vào, giúp xúc giác của robot được số hóa với độ chính xác cao.

Yunzhu Li - nhà nghiên cứu tại trường MIT đang phát triển hệ thống AI có khả năng kết nối hình ảnh với cảm giác tiếp xúc bề mặt. Li nói với Wall Street Journal: "Con người phát triển khả năng từ kinh nghiệm học trong suốt cuộc đời, mạng nơ-ron có thể học nhanh hơn nhiều".

Bằng cách thu thập dữ liệu từ 200 vật thể đã được cảm biến GelSight chạm vào, Li đã tạo ra kho dữ liệu cho AI để tìm mối liên hệ giữa dữ liệu hình ảnh và dữ liệu xúc giác.

Theo thanhnien