Sự phát triển của công nghệ chiến lược dẫn đến bùng nổ các dữ liệu chuyên ngành, từ đó phát sinh ra câu hỏi: "Làm sao quản trị dữ liệu AI một cách hiệu quả, tránh dữ liệu rác và hỗ trợ ra quyết định một cách hiệu quả hơn?"
Để trả lời câu hỏi này, phóng viên (pv) tìm đến PGS.TS Lê Hoàng Sơn - Phó Viện trưởng kiêm Giám đốc Trung tâm Nghiên cứu tiên tiến quốc tế về trí tuệ nhân tạo ứng dụng (AIRC), Viện Công nghệ thông tin, Đại học Quốc gia Hà Nội. Ông là một trong những gương mặt tiêu biểu của Việt Nam trong lĩnh vực Khoa học máy tính, đã có 6 năm liên tiếp có mặt trong top 10.000 nhà khoa học xuất sắc nhất thế giới (2019-2024) và có nhiều sản phẩm công nghệ Trí tuệ nhân tạo ứng dụng trong Y tế, Giáo dục và Môi trường tại Việt Nam và các quốc gia phát triển tại Châu Âu và Hoa Kỳ.
PGS. Lê Hoàng Sơn (người bên phải)
Trong những năm gần đây, nhiều công nghệ trí tuệ nhân tạo đang dần thay đổi cách con người tương tác với thực tại thông qua hình ảnh trực quan. Hai công nghệ nổi bật là "Hệ thống hỏi đáp trực quan" (Visual Question Answering- VQA) và "Sinh chú thích trực quan" (Visual Captioning-VC) cho phép máy tính không chỉ nhận diện mà còn có thể "trả lời câu hỏi" và "mô tả nội dung" từ ảnh hoặc một đoạn video. Những công nghệ này mang lại ứng dụng thực tế mạnh mẽ trong các lĩnh vực như chăm sóc người khiếm thị, giám sát an ninh, chăm sóc sức khỏe hay quản lý dữ liệu hình ảnh.
Thử tưởng tượng người khiếm thị được trang bị kính thông minh ("smart glass") có gắn chức năng VQA/VC, khi đi trên đường nếu có vật cản hoặc tình hình giao thông phức tạp thì kính sẽ phát ra âm thanh mô tả thông tin về đường và vật cản cho người, đồng thời khi người khiếm thị muốn hỏi thêm thông tin về trạng thái giao thông thì có thể hỏi trực tiếp và kính sẽ trả lời, như là một người bạn đồng hành. Ứng dụng dạng này rất hữu ích cho công việc và cuộc sống.
VQA, hay còn gọi là công nghệ trả lời câu hỏi dựa trên hình ảnh/video, cho phép máy tính nhìn vào một bức ảnh và trả lời các câu hỏi liên quan đến nội dung trong ảnh đó. Chẳng hạn, khi đưa vào một bức ảnh chụp sân chơi có thể hỏi: "Có bao nhiêu đứa trẻ đang chơi xích đu?" và hệ thống có thể trả lời chính xác "Hai đứa trẻ."
Để thực hiện điều này, máy tính sử dụng các mô hình học sâu, đặc biệt là nền tảng CNN (mạng nơ-ron tích chập) để phân tích nội dung hình ảnh và nhận diện vật thể, màu sắc, số lượng. Sau đó, hệ thống sẽ sử dụng Transformer – một công nghệ xử lý ngôn ngữ tiên tiến – để hiểu nội dung câu hỏi và kết nối nó với những gì được "thấy" trong ảnh. Các mô hình AI như VisualBERT hay BLIP-2 đang đóng vai trò cốt lõi trong việc phát triển những hệ thống VQA hiện đại, cho phép máy tính trả lời linh hoạt hơn, gần giống như con người.
Hệ thống hỏi đáp trực quan AIRC-VL tại Viện Công nghệ Thông tin, ĐHQGHN ứng dụng công nghệ lõi về AI đa mô thức với Mô hình ngôn ngữ lớn tiếng Việt
Với xu thế nghiên cứu hiện nay về Trí tuệ nhân tạo (AI), các ứng dụng chuyên ngành có lượng dữ liệu và tri thức khổng lồ do các mô hình sau khi được huấn luyện trước ("pre-trained") thường điều chỉnh ("fine-tune") với dữ liệu và tri thức miền ("data driven") để tinh chỉnh lại mô hình AI phù hợp ("model driven"). Các hướng tiếp cận hiện đại về AI 4.0 trong hơn 10 năm qua có thể được khái quát như sau.
1. Multimodal & Multi-Environment AI (AI đa mô thức và đa môi trường)
- Ví dụ: Nghiên cứu về mô hình ngôn ngữ lớn và vừa (Large Language Model - LLM, Small Language Model - SLM), các hệ thống kết hợp IoT và camera, các hệ thống quan trắc thông minh (Smart Surveillance), công nghệ dự báo đa mô thức (Multimodal Forecasting/Nowcasting), ..
- Đánh giá: Đây là hướng nghiên cứu hiện đại trong giai đoạn 2024-2025 trong đó 1/3 thiên về dữ liệu + 1/3 về mô hình + 1/3 thiên về mô thức tính toán định hướng sản phẩm công nghệ.
2. Knowledge Based Systems (Các hệ thống xử lý dựa trên tri thức chuyên gia)
- Ví dụ: Các mô hình lưu trữ và lập luận xấp xỉ trên dữ liệu lớn như: Đồ thị tri thức (Fuzzy Knowledge Graph), các hệ học chuyển giao (Transfer Learning), các hệ khuyến nghị động (Dynamic Recommender Systems),...
- Đánh giá: Đây là hướng nghiên cứu AI giai đoạn 5 năm trước (2018-2023) với tiếp cận 1/2 nền tảng lý thuyết AI + 1/3 dữ liệu + 1/6 ứng dụng. Đi theo hướng này sẽ tạo ra nền tảng công nghệ lõi trong các sản phẩm AI.
3. Soft Computing Foundation (Nền tảng tính toán mềm về toán học)
- Ví dụ: Các nghiên cứu về xây dựng các toán tử (operators) và quan hệ trên các tập nền mở rộng, làm cơ sở xây dựng các thuật toán khai phá dữ liệu (data mining) hiện đại như: phân cụm phân tán (distributed clustering), dự báo bất thường trên chuỗi thời gian từ mạng cảm biến không dây (Outlier detection from WSN.. ), phân lớp đa nhãn có tính lý giải (explainable multi-class classification), hệ hỗ trợ ra quyết định (multi-criteria decision making), các hệ tối ưu tiến hóa lai (hybrid evolutionary systems)..
- Đánh giá: Đây là hướng nghiên cứu thuần lý thuyết giai đoạn 20 năm trước (2001-2013) với nền tảng toán học và tính toán mềm vững chắc (3/4 lý thuyết + 1/4 thí nghiệm trên dữ liệu chuẩn). Hướng nghiên cứu này được cộng đồng khoa học trong nước quan tâm do không phụ thuộc vào hệ thống máy tính mà chủ yếu dựa trên sự sáng tạo nghiên cứu.
4. Integrated Machine Learning in Computer Vision, NLP,... (Học máy tích hợp trong Thị giác máy tính và Xử lý ngôn ngữ tự nhiên...)
- Ví dụ: Các hệ điều khiển thông minh kết hợp thông tin đầu vào từ cảm biến và camera, các mô hình học sâu xếp chồng trong nha khoa (stacked machine learning)...
- Đánh giá: Đây là hướng nghiên cứu về AI cũng bắt đầu mạnh mẽ trong 5 năm trước (2018-2023) với các nghiên cứu nền tảng về Học sâu (Deep Learning) trong Nha khoa và tiến hóa đến thời điểm 2025 là các mô hình học sâu xếp chồng và xử lý đa thành phần đa nguồn (Multi-source, Multimodal, Multimedia AI). Hướng nghiên cứu này có 1/3 làm về mô hình + 1/3 về dữ liệu + 1/3 về triển khai thực tế. Phù hợp cho các kỹ sư AI chất lượng cao làm sản phẩm công nghệ lõi ứng dụng trong Y tế, giáo dục và môi trường.
Công nghệ Camera thông minh AIRC-Smart Camera tại ĐHQGHN ứng dụng mô hình Học máy tích hợp trong Thị giác máy tính
Trong thực tế triển khai ứng dụng AI với các công nghệ chiến lược tại các doanh nghiệp và tổ chức, có hai thách thức lớn: (1) đảm bảo mô hình AI cho kết quả đáng tin cậy, và (2) duy trì khả năng cập nhật mô hình với dữ liệu mới nhằm đáp ứng kịp thời nhu cầu của người dùng. Theo khảo sát của Forbes, 85% các dự án AI thất bại vì dữ liệu chất lượng kém, thiếu hụt hoặc không phù hợp.
Ngoài ra, một phần nguyên nhân đến từ việc mô hình không thể vượt ra khỏi môi trường nghiên cứu để vận hành ổn định trong môi trường sản xuất thực tế. Nhu cầu đặt ra ở đây là cần xây dựng quy trình dữ liệu ("data pipeline") hiệu quả nhằm thu thập dữ liệu ("data crawling"), tiền kiểm dữ liệu ("data trust validation"), tiền xử lý dữ liệu ("data pre-processing"), tổ chức và lưu trữ dữ liệu ("data warehouse") và từ đó trích rút ra các bản thể dữ liệu ("data mart") trên nền tảng dashboard trực quan ("Smart BI"). Công nghệ quản trị dữ liệu này được gọi là DataOps tích hợp BI.
Thành phần xử lý dữ liệu tự động trong DataOps đang được phát triển tại AIRC
DataOps được phát triển dựa trên triết lý và nguyên tắc của DevOps. Khi DevOps ra đời, nó đã giúp các lập trình viên thích nghi tốt hơn với sự thay đổi liên tục trong quá trình phát triển phần mềm, từ đó nâng cao hiệu suất triển khai. Tương tự, trong lĩnh vực AI, bài toán thay đổi không nằm ở mã nguồn mà là ở dữ liệu đầu vào – thứ luôn biến động và mang tính quyết định tới hiệu quả của mô hình.
Có thể nói, dữ liệu càng chất lượng thì mô hình AI càng hiệu quả. Một hệ thống DataOps hiệu quả thường bao gồm quy trình ETL (Extract – Transform – Load) được tích hợp với các cơ chế kiểm định chất lượng dữ liệu. Điều này cho phép tự động hóa quá trình chuẩn bị dữ liệu phục vụ xây dựng mô hình AI, đồng thời liên tục kiểm tra và đảm bảo tính chính xác của dữ liệu ở từng bước xử lý. Khi kết hợp với MLOps, DataOps có thể rút ngắn đáng kể thời gian đưa mô hình AI từ phòng lab đến tay người dùng.
Quá trình tiền kiểm dữ liệu ("data trust validation") rất quan trọng. Trong hầu hết các ứng dụng AI trước đây, dữ liệu thô sau khi thu thập chỉ được triển khai qua bước tiền xử lý và đưa vào mô hình AI để huấn luyện. Rất nhiều dữ liệu rác và dữ liệu thiên lệch ("bias") do hacker cố tình đưa vào để làm sai lệch hệ thống nhưng cũng không được AI phát hiện ra. Do vậy, tình trạng tin giả từ các nền tảng mô hình ngôn ngữ lớn như ChatGPT, Claude,.. xuất hiện với tần suất ngày càng nhiều đặt ra thách thức cho các nhà quản trị dữ liệu.
Công nghệ Visual Captioning có khả năng miêu tả ngữ cảnh bằng văn bản
Lấy ví dụ như công nghệ "Sinh chú thích trực quan" (Visual Captioning-VC) trong AI đa mô thức và đa môi trường giúp máy tính tự động tạo ra mô tả bằng văn bản cho một hình ảnh. Ví dụ, với một bức ảnh chụp một con chó đang chạy trên bãi biển, hệ thống có thể tạo ra chú thích như: "Một con chó lông nâu đang chạy trên cát vào buổi chiều." Để làm được điều đó, máy tính cũng cần kết hợp giữa công nghệ thị giác và xử lý ngôn ngữ tự nhiên.
Đầu tiên, CNN được dùng để phân tích và xác định các đối tượng trong ảnh. Tiếp theo, mạng nơ-ron hồi tiếp RNN hoặc các mô hình tựa Transformer sẽ chuyển đổi thông tin này thành câu mô tả trôi chảy, dễ hiểu. Một số hệ thống tiên tiến như "Show and Tell" hay CLIP đang được sử dụng rộng rãi trong các nền tảng ảnh, mạng xã hội và trợ lý ảo nhằm giúp người dùng dễ dàng nắm bắt nội dung hình ảnh mà không cần phải xem trực tiếp.
Các công nghệ như Visual Question Answering (VQA) hay Visual Captioning (VC) đều là những ứng dụng "khát" dữ liệu – hiệu quả của chúng phụ thuộc mạnh vào việc liên tục được cập nhật với dữ liệu mới. Ngoài ra, quá trình tiền kiểm dữ liệu cần được tích hợp mạnh mẽ trong các ứng dụng này để loại trừ việc làm sai lệch dữ liệu. DataOps+BI chính là giải pháp để đảm bảo nguồn dữ liệu đầu vào luôn sẵn sàng, từ đó giúp các công nghệ này không ngừng được cải thiện và làm mới. Bên cạnh đó giúp quá trình hậu kiểm dữ liệu thu thập và hỗ trợ ra quyết định hiệu quả hơn.
Business Intelligence (BI) thời gian thực mang lại lợi thế rõ rệt so với BI truyền thống bằng cách cung cấp thông tin chi tiết gần như ngay lập tức, cho phép doanh nghiệp ra quyết định tức thời trong các hoạt động hàng ngày. Tuy nhiên, cái giá phải trả cho tốc độ này là không nhỏ. BI truyền thống thường đơn giản hơn trong việc triển khai và bảo trì vì nó dựa trên xử lý theo lô (batch processing) – dữ liệu được thu thập, làm sạch và xử lý theo lịch định kỳ (ví dụ: hàng ngày hoặc hàng tuần), đảm bảo độ chính xác cao và dễ kiểm soát lỗi.
Trong khi đó, BI thời gian thực yêu cầu kiến trúc phức tạp hơn, thường sử dụng các công nghệ như Apache Kafka, Apache Flink hoặc Spark Streaming, để thu thập, xử lý và phân tích dữ liệu liên tục. Điều này làm tăng chi phí hạ tầng, độ phức tạp trong vận hành, và yêu cầu kỹ thuật cao hơn trong việc bảo trì hệ thống.
Một trong những đánh đổi lớn nhất là giữa tốc độ và tính ổn định. Hệ thống thời gian thực tuy nhanh nhưng dễ "mong manh" hơn – một lỗi nhỏ trong luồng dữ liệu có thể lan rộng nhanh chóng và ảnh hưởng đến dashboard hoặc các phản ứng tự động trước khi con người kịp can thiệp.
Một đánh đổi khác là giữa độ mới và độ chính xác. Dữ liệu thời gian thực có thể chưa đầy đủ hoặc còn sai lệch – ví dụ như giao dịch vẫn đang xử lý hoặc dữ liệu bổ sung (như thông tin địa lý hay hồ sơ khách hàng) chưa được cập nhật. BI truyền thống tuy chậm hơn nhưng đảm bảo dữ liệu đã được xác minh kỹ lưỡng trước khi báo cáo, rất phù hợp cho các quyết định chiến lược dài hạn như kế hoạch tài chính quý hoặc phân tích tăng trưởng năm.
Công nghệ BI thông minh tích hợp AI
Về khả năng mở rộng và chi phí, BI thời gian thực đòi hỏi hệ thống phải xử lý khối lượng lớn dữ liệu liên tục, thường cần đến các cơ sở dữ liệu truy xuất nhanh (như in-memory DB) hoặc các hệ thống phân tích chuyên biệt như Apache Druid, ClickHouse, hoặc Apache Pinot. Những hệ thống này phải luôn sẵn sàng, có khả năng mở rộng ngang, và chống lỗi tốt – dẫn đến chi phí vận hành cao hơn. Ngoài ra, BI thời gian thực còn đòi hỏi phải tăng cường các cơ chế bảo mật và kiểm soát truy cập, vì những quy trình kiểm duyệt truyền thống không áp dụng được trong môi trường xử lý trực tuyến.
BI khi tích hợp với AI (hay còn gọi là SmartBI) sẽ đóng vai trò là công cụ phân tích trong nền tảng DataOps, nơi người dùng cuối – bao gồm các nhà phân tích, lãnh đạo, hoặc công chúng nếu là cổng thông tin mở – sẽ tương tác với hệ thống thông qua giao diện web/mobile. Hệ thống phân quyền sẽ kiểm soát ai được truy cập vào dashboard nào và dữ liệu gì. Với các dashboard nội bộ, người dùng sẽ đăng nhập một lần qua hệ thống SSO đã tích hợp, sau đó có thể truy cập các báo cáo phù hợp với vai trò của mình. Giao diện SmartBI thuận tiện cho người dùng trong tương tác trực tiếp với biểu đồ, chẳng hạn như lọc dữ liệu theo nhiều tiêu chí, đi sâu vào chi tiết, hoặc xuất dữ liệu ra định dạng khác để lưu trữ và phân tích thêm.
Công nghệ DataOps+Smart BI sẽ giúp quản trị dữ liệu AI hiệu quả, đặc biệt trong môi trường doanh nghiệp và cơ quan nhà nước với các cơ chế phân quyền, xác thực hiệu quả. Cụ thể, SmartBI sẽ tích hợp cơ chế xác thực một lần (Single Sign-On) có sẵn của hạ tầng DataOps, đồng thời mở rộng mô hình phân quyền chi tiết để đảm bảo rằng người dùng ở các phòng ban hoặc cơ quan khác nhau chỉ truy cập được vào dashboard và dữ liệu mà họ có quyền xem, từ đó đảm bảo an ninh và quyền riêng tư dữ liệu.
Thảo luận, trao đổi về xu thế phát triển AI tại Việt Nam trong sự kiện "Báo cáo thường niên về Trí tuệ nhân tạo Việt Nam" tại Viện CNTT, ĐHQGHN
Ngoài ra, một tính năng quan trọng khác là cảnh báo dữ liệu và báo cáo định kỳ. SmartBI cung cấp khả năng gửi cảnh báo (alert) và báo cáo tự động qua email hoặc tích hợp với các hệ thống như Slack. Người dùng có thể đăng ký nhận thông báo khi một chỉ số vượt ngưỡng đã định hoặc nhận báo cáo PDF theo lịch hàng tuần. Nhờ đó, hệ thống có thể chủ động thông tin đến người ra quyết định khi có những biến động dữ liệu đáng chú ý.
SmartBI có khả năng kết nối đến nhiều nguồn dữ liệu khác nhau trong hệ sinh thái DataOps từ dữ liệu phi cấu trúc hoặc thời gian thực như Apache Kafka hay Elasticsearch thông qua các API trung gian. Điều này cho phép trực quan hóa cả dữ liệu thời gian thực và dữ liệu lịch sử trên cùng một nền tảng. Việc tích hợp với nhiều hệ thống hiện đại như Apache Druid (OLAP) hay Kafka stream cho phép SmartBI hoàn toàn có thể được mở rộng để bao quát và xử lý nhiều loại dữ liệu khác nhau.
Tóm lại, công nghệ DataOps+Smart BI sẽ giúp quản trị dữ liệu AI hiệu quả và mang đến lợi thế cạnh tranh rõ rệt trong nhiều lĩnh vực như vận hành, giám sát tức thời và phát hiện gian lận, nhưng cũng đi kèm với những đánh đổi lớn về chi phí hạ tầng, độ phức tạp hệ thống, chất lượng dữ liệu và công sức duy trì. Để thực hiện điều này, rất cần Chính phủ và các doanh nghiệp lớn cân nhắc đầu tư nền tảng hạ tầng đồng bộ nhằm chuyển đổi số toàn diện, tạo đà cho sự phát triển của các công nghệ mũi nhọn đóng góp vào phát triển kinh tế của Việt Nam trong thời gian tới.
* Mời quý độc giả theo dõi các chương trình đã phát sóng của Đài Truyền hình Việt Nam trên TV Online và VTVGo!