Với radar hoặc lidar, ít nhất bạn phải xử lý nguồn bức xạ được kiểm soát, tức là những gì được phát ra bởi cảm biến. Mặt khác, điều này không xảy ra với các cảm biến máy ảnh, vốn cung cấp độ phân giải cao và mức giá hợp lý. tỷ lệ hiệu suất; nguồn sáng có thể là mặt trời, đèn đường, đèn pha ô tô khác, v.v.
Người sáng lập và Giám đốc điều hành Autobrains Yigal Reichelhaus cũng tỏ ra hoài nghi. “Việc thực hiện kiến thức thông qua biểu tượng hoặc quy luật vật lý, thay vì để AI học cách tương tác trong thế giới vật chất, có vẻ như là một bước lùi. Con người là những động lực vĩ đại, ngay cả những người không biết gì về vật lý. ” vật lý và biểu tượng học.
Tất nhiên, Becker nói, hệ thống lái tự động phải có thể giải thích được. “Đó là những gì các nhà phát triển muốn, và đó là những gì luật học muốn . ” Cách tiếp cận phổ biến nhất hiện nay là “chia mô hình AI thành các khối kết hợp với một hệ thốngnhững màn hình AI này” . Raichelgauz giải thích cách tiếp cận dựa trên sự phát triển của Autobrains. Giám đốc điều hành cho biết: “Chúng tôi mô-đun hóa và chia vấn đề lái xe tự động thành một tập hợp lớn các vấn đề, mỗi vấn đề được giải quyết bằng mạng thần kinh đầu cuối chuyên dụng. Điều này làm giảm đáng kể độ phức tạp và cho phép giải thích tốt hơn” .
Con đường dẫn tới việc lái xe hoàn toàn tự động vẫn còn dài
Cho đến nay, công ty đã áp dụng phương pháp mô phỏng này; “Họ bổ sung khoảng 400.000 kỹ năng để cung cấp chế độ cấp 4 hoặc 5 an toàn và hoàn toàn không được giám sát. 10.000 kỹ năng là đủ cho hệ thống L2++ có thể mở rộng lên L4.” Vì vậy, vẫn còn nhiều việc phải làm, Reichelhaus cũng biết. “Chúng ta vẫn còn một chặng đường dài mới có được quyền tự chủ hoàn toàn, nhưng công nghệ mô-đun đầu cuối mang đến một con đường rõ ràng để đạt được điều đó.”
Becker, người đứng đầu Apex.AI, thể hiện bản thân một cách thận trọng hơn một chút. “Những tiến bộ trong các mô hình học sâu toàn diện là rất lớn, vì cả kích thước của mô hình và lượng dữ liệu được thu thập để đào tạo các mô hình đó đều không ngừng tăng lên. Tuy nhiên, chúng hiện không đủ tin cậy cho việc lái xe tự động không có giám sát và khi điều đó khó có thể dự đoán được.” Điều này gần đây đã được xác nhận bởi Waymo, được cho là tiến xa nhất trong lĩnh vực lái xe tự động.
Để chia một mô hình AI thành các khối và kết hợp với hệ thống màn hình AI, chúng ta có thể hình dung hệ thống như một kiến trúc phân tầng. Dưới đây là các khối chính trong mô hình AI và cách tích hợp với các màn hình tương tác:
1. Các khối chính trong mô hình AI
Hệ thống AI có thể được chia thành các khối cơ bản sau:
1.1. Khối thu thập dữ liệu (Data Collection)
- Chức năng: Thu thập dữ liệu từ các cảm biến, thiết bị IoT, hoặc cơ sở dữ liệu.
- Đầu vào: Camera, micrô, cảm biến nhiệt, radar, lidar, v.v.
- Đầu ra: Dữ liệu thô (ảnh, âm thanh, số liệu).
1.2. Khối tiền xử lý dữ liệu (Data Preprocessing)
- Chức năng: Lọc, làm sạch, chuyển đổi và chuẩn hóa dữ liệu để phù hợp với mô hình AI.
- Công nghệ liên quan:
- Xử lý hình ảnh (Image Processing).
- Xử lý ngôn ngữ tự nhiên (Natural Language Processing – NLP).
- Giảm nhiễu, giải mã tín hiệu.
1.3. Khối mô hình AI (AI Model Core)
- Chức năng:
- Mô hình phân tích dữ liệu: Machine Learning, Deep Learning, hoặc các mô hình AI khác.
- Các tác vụ AI chính: Phân loại, dự đoán, nhận diện khuôn mặt, xử lý giọng nói.
1.4. Khối suy luận (Inference Engine)
- Chức năng:
- Đưa ra quyết định dựa trên mô hình AI đã được huấn luyện.
- Chạy trong thời gian thực để đáp ứng nhu cầu người dùng.
1.5. Khối hiển thị và phản hồi (UI/UX Layer)
- Chức năng: Tương tác với người dùng qua màn hình hoặc các thiết bị hiển thị.
- Công cụ: Dashboard, đồ thị, bản đồ 3D, biểu đồ phân tích, hoặc giao diện hiển thị trên màn hình cảm ứng.
1.6. Khối quản lý và cập nhật (Management & Updates)
- Chức năng: Theo dõi hiệu suất, cập nhật mô hình, bảo trì hệ thống.
2. Kết hợp hệ thống với màn hình AI
Để hệ thống AI có thể hiển thị thông tin một cách trực quan và tương tác với người dùng, màn hình đóng vai trò là giao diện chính. Các loại màn hình và chức năng cụ thể gồm:
2.1. Màn hình đầu vào dữ liệu
- Chức năng:
- Giám sát dữ liệu thô từ camera, radar, lidar.
- Hiển thị thông tin đầu vào theo thời gian thực.
- Ứng dụng: Xe tự lái hiển thị thông tin cảm biến và môi trường xung quanh.
2.2. Màn hình giám sát
- Chức năng:
- Cung cấp giao diện để theo dõi kết quả suy luận từ AI.
- Ví dụ: Trạng thái đường xá, dự báo thời tiết, tình trạng xe.
- Tích hợp công nghệ: Màn hình 3D hoặc thực tế tăng cường (AR).
2.3. Màn hình phân tích dữ liệu
- Chức năng:
- Hiển thị kết quả phân tích dưới dạng biểu đồ, bảng số liệu.
- Cung cấp thông tin về hiệu suất của mô hình AI, chẳng hạn độ chính xác, lỗi dự đoán.
- Ứng dụng:
- Trung tâm điều hành xe tự lái hoặc hệ thống quản lý giao thông.
2.4. Màn hình phản hồi tương tác
- Chức năng:
- Người dùng nhập lệnh và nhận phản hồi từ AI.
- Ví dụ: Màn hình cảm ứng trên xe tự lái để chọn điểm đến, hiển thị trạng thái xe.
2.5. Màn hình hỗ trợ quyết định
- Chức năng:
- Đưa ra khuyến nghị hoặc các lựa chọn dựa trên AI.
- Ví dụ: “Tuyến đường nhanh nhất” hoặc “Cần phanh gấp.”
3. Mô hình tích hợp hệ thống màn hình AI
Dưới đây là cách các khối kết nối và tích hợp với màn hình:
Ví dụ thực tế trong xe tự lái:
- Khối cảm biến: Camera và radar thu dữ liệu về môi trường xung quanh.
- Màn hình:
- Màn hình HUD (Head-Up Display) hiển thị dữ liệu lái xe an toàn.
- Màn hình trung tâm tương tác (Dashboard) hiển thị lộ trình, trạng thái xe, và cảnh báo.
- Khối suy luận:
- Quyết định: “Phanh” hoặc “Rẽ trái.”
- Hiển thị trực quan: Dự đoán khoảng cách đến vật cản.
Bạn muốn mở rộng ứng dụng này sang ngành cụ thể nào không? Ví dụ: Y tế, sản xuất, hoặc giáo dục?