Generative AI: Xu hướng đột phá nhất thập kỷ
Generative AI (GenAI) là một loại trí tuệ nhân tạo có thể tạo ra nội dung sáng tạo mới, chẳng hạn như văn bản, code, bản nhạc, email, ảnh minh họa, v.v. Các mô hình GenAI được đào tạo trên lượng dữ liệu khổng lồ và chúng có thể tìm hiểu các mẫu trong dữ liệu và sử dụng các mẫu đó để tạo ra kết quả đầu ra mới
Hầu hết tất cả hình ảnh trong bài viết này đều được tạo bằng Chat GPT-4 & DALL-E 3 tích hợp sẵn của Bing. Toàn bộ văn bản này được viết với sự trợ giúp của Bard và Chat GPT-3 của Google.
Trên thực tế, trong tương lai gần, Generative AI vẫn sẽ không thay thế các nhà văn và nhà thiết kế đồ họa; tuy nhiên, nó tăng tốc đáng kể toàn bộ quá trình bằng cách tạo ra hình ảnh và văn bản, diễn đạt lại, làm cho nó ngắn hơn, dài hơn hoặc đơn giản hơn…
Nhiều chuyên gia cho rằng đến năm 2026, việc áp dụng AI tổng quát dự kiến sẽ tăng vọt , với hơn 80% doanh nghiệp kết hợp API, mô hình và ứng dụng AI tổng quát vào hoạt động của họ, tăng từ mức dưới 5% hiện nay.
BYOAI & Shadow AI
BYOAI (Mang trí tuệ nhân tạo của riêng bạn) là xu hướng làm việc mới, nơi nhân viên mang các công cụ và ứng dụng AI của riêng họ đi làm. Sự sẵn có ngày càng tăng của các công cụ AI có giá cả phải chăng và dễ sử dụng cũng như nhu cầu ngày càng tăng về kỹ năng AI trong lực lượng lao động đã thúc đẩy xu hướng này. Forrester, một công ty nghiên cứu thị trường của Hoa Kỳ cho rằng 60% người lao động sẽ sử dụng AI của riêng họ để thực hiện nhiệm vụ.
BYOAI mang lại nhiều lợi ích, bao gồm tăng năng suất và đổi mới, cải thiện sự hài lòng của nhân viên và giảm chi phí.
Mặc dù BYOAI là cơ hội tuyệt vời cho người lao động nhưng nó có thể dễ dàng vượt khỏi tầm kiểm soát.
Shadow AI, còn được gọi là Shadow IT cho AI, đề cập đến việc sử dụng các ứng dụng và công cụ trí tuệ nhân tạo trong một tổ chức mà không có kiến thức rõ ràng hoặc sự giám sát của bộ phận CNTT.
Tuy nhiên, nó tiềm ẩn nhiều rủi ro như:
- Vi phạm quyền riêng tư và bảo mật dữ liệu: Các công cụ AI không được kiểm duyệt có thể không có các biện pháp bảo vệ giống như các công cụ chính thức, vì vậy thông tin nhạy cảm có thể bị đánh cắp hoặc bị mất.
- Vi phạm tuân thủ: Tương tự, những công cụ này có thể không tuân theo các quy định quan trọng, có thể dẫn đến rắc rối pháp lý.
AI nguồn mở – Open source AI
Sự bùng nổ generative AI của năm 2023 chủ yếu được thúc đẩy bởi các mô hình độc quyền của OpenAI. Tuy nhiên, nhiều tổ chức hiện đang áp dụng các mô hình nguồn mở, chẳng hạn như GPT-J.
Các mô hình nguồn mở minh bạch, linh hoạt, có thể tùy chỉnh và tiết kiệm chi phí hơn các mô hình độc quyền.
Theo Forrester, mặc dù điều đó không có nghĩa là các mô hình độc quyền sẽ sớm biến mất nhưng tương lai sẽ có nhiều không gian hơn cho các giải pháp nguồn mở, với 85% doanh nghiệp kết hợp các mô hình AI nguồn mở vào kho công nghệ của họ.
Bảo hiểm rủi ro AI
Mặc dù GenAI là một công cụ mạnh mẽ nhưng nó cũng có khả năng tạo ra các kết quả đầu ra sai lệch trông như thể chúng có thể đúng. Những kết quả đầu ra sai này được gọi là ảo giác.
Khi GenAI được sử dụng rộng rãi hơn, mối lo ngại sẽ ngày càng tăng về nguy cơ ảo giác, theo đó nhu cầu bảo hiểm ảo giác cũng sẽ tăng lên.
Thị trường bảo hiểm rủi ro AI vẫn đang ở giai đoạn đầu nhưng dự kiến sẽ tăng trưởng nhanh chóng trong những năm tới. Theo một trong những dự đoán về AI của Forrester cho năm 2024:
“Một số công ty bảo hiểm lớn sẽ đưa ra chính sách ảo giác rủi ro AI cụ thể. Xu hướng ảo giác hoặc sai sót của GenAI làm thay đổi phép tính quản lý rủi ro và các chiến lược chuyển giao rủi ro phức tạp. Các công ty bảo hiểm đã cố gắng thu hẹp các lỗ hổng trong phạm vi bảo hiểm đồng thời mở rộng danh sách loại trừ của họ xung quanh ảo giác AI. Nhưng với sự tăng trưởng dự kiến của genAI, các công ty bảo hiểm tiên phong sẽ sẵn sàng chi trả hơn cho những rủi ro đặc biệt và khó bảo hiểm như ảo giác. Trên thực tế, bảo hiểm ảo giác sẽ kiếm được nhiều tiền vào năm 2024”.
AI TRISM
AI TRiSM là viết tắt của Quản lý tin cậy, rủi ro và bảo mật trí tuệ nhân tạo. Đó là một khuôn khổ giúp các tổ chức quản lý rủi ro trong việc phát triển và triển khai các mô hình AI.
AI TRISM giải quyết năm lĩnh vực chính:
- Khả năng giải thích: AI TRiSM giúp các tổ chức hiểu cách các mô hình AI của họ đưa ra quyết định và xác định những sai lệch tiềm ẩn.
- ModelOps: Các mô hình AI cần được quản lý và bảo trì giống như bất kỳ hệ thống phần mềm nào khác. AI TRiSM cung cấp các công cụ và quy trình để tự động hóa và giám sát vòng đời của các mô hình AI.
- Phát hiện dữ liệu bất thường: Các mô hình AI được đào tạo về dữ liệu; nếu dữ liệu không chính xác, đầu ra cũng sẽ sai lệch. AI TRiSM giúp các tổ chức xác định và giải quyết các điểm bất thường về dữ liệu có thể dẫn đến lỗi trong mô hình AI.
- Chống lại sự tấn công của đối thủ: AI TRiSM cung cấp các công cụ và kỹ thuật để phòng thủ trước các cuộc tấn công của đối thủ.
- Bảo vệ dữ liệu: Các mô hình AI thường chứa dữ liệu cá nhân nhạy cảm. AI TRiSM giúp các tổ chức tuân thủ các quy định về quyền riêng tư dữ liệu và bảo vệ quyền riêng tư của các cá nhân.
AI lượng tử
Sự kết hợp giữa điện toán lượng tử và AI, được gọi là AI lượng tử, là một lĩnh vực đang nổi lên nhanh chóng và mở ra nhiều khả năng. Thị trường AI lượng tử toàn cầu dự kiến sẽ đạt 1,8 tỷ USD vào năm 2030, tăng trưởng với tốc độ CAGR là 34,1% .
Máy tính lượng tử có thể cung cấp sức mạnh tính toán để đào tạo và chạy các mô hình AI phức tạp, trong khi thuật toán AI có thể tối ưu hóa và sử dụng tài nguyên lượng tử một cách hiệu quả.
Mối quan hệ tương tương tác này có tiềm năng cách mạng hóa các lĩnh vực như:
- Lập mô hình tài chính và đánh giá rủi ro: AI lượng tử có thể phân tích lượng lớn dữ liệu tài chính để xác định mô hình và dự đoán diễn biến thị trường, cải thiện chiến lược đầu tư và quản lý rủi ro.
- Khám phá và phát triển thuốc: Với thuật toán lượng tử, các nhà khoa học sẽ có thể tối ưu hóa thiết kế thuốc và mô phỏng các tương tác phân tử để tăng tốc độ khám phá các liệu pháp mới và hiệu quả.
- Trí tuệ tổng hợp nhân tạo (AGI): AI lượng tử có thể đóng một vai trò quan trọng trong việc đạt được trí tuệ tổng hợp nhân tạo (AGI) theo giả thuyết, khả năng máy móc có thể thực hiện bất kỳ nhiệm vụ trí tuệ nào mà con người có thể.
Pháp luật về AI
Khi trí tuệ nhân tạo ngày càng trở nên phức tạp và được tích hợp vào cuộc sống của chúng ta, nhu cầu về luật pháp để quản lý sự phát triển và sử dụng nó ngày càng tăng.
AI có thể được sử dụng cho nhiều mục đích tích cực và tiêu cực và điều quan trọng là phải có luật để đảm bảo rằng nó được sử dụng một cách có trách nhiệm và có đạo đức.
Đạo luật AI của EU
Liên minh Châu Âu đang dẫn đầu về luật AI, với việc Ủy ban Châu Âu đề xuất Đạo luật Trí tuệ Nhân tạo vào năm 2021. Quy định được đề xuất này sẽ là khuôn khổ toàn cầu đầu tiên cho quản trị AI. Đạo luật AI của EU có thể sẽ được thông qua vào đầu năm 2024 trước cuộc bầu cử Nghị viện châu Âu vào tháng 6 năm 2024.
Hội nghị thượng đỉnh về an toàn AI 2023
Vào tháng 11 năm 2023, một nhóm chuyên gia từ các chính phủ, công ty AI và xã hội dân sự đã cùng nhau tham dự Hội nghị Thượng đỉnh An toàn AI để thảo luận về những rủi ro của trí tuệ nhân tạo (AI), đặc biệt là các công nghệ AI mới nhất và tiên tiến nhất.
Hội nghị thượng đỉnh được tổ chức tại Bletchley Park, Milton Keynes, Vương quốc Anh, vào ngày 1–2 tháng 11 năm 2023. Đây là hội nghị thượng đỉnh toàn cầu đầu tiên về trí tuệ nhân tạo.
Tham khảo: Forrester; Gartner; Medium
Nguồn tin: https://genk.vn/du-doan-ve-ai-nhung-xu-huong-ai-hang-dau-cho-nam-2024-20231230100755351.chn