Những sự kiện đáng chú ý xung quanh chủ đề trí tuệ nhân tạo (AI) trong năm 2023.
Năm 2023 là năm của trí tuệ nhân tạo (AI). Kể từ khi ra mắt vào tháng 11.2022, ChatGPT đã trở thành một trong những ứng dụng tăng trưởng nhanh nhất hiện nay, thu hút 100 triệu người dùng chỉ trong hai tháng.
Việc AI trở thành đề tài thảo luận trọng tâm của năm 2023 đã dẫn đến một loạt startup ra mắt các công cụ AI có khả năng tạo ra mọi thứ, từ giọng nói cho đến video.
Từ đầu năm, AI quả thực đã tiến một bước dài và mọi người đặt ra câu hỏi liệu ChatGPT có thể thay thế Google trong lĩnh vực tìm kiếm hay không.
Trả lời Forbes trong một buổi phỏng vấn hồi tháng 1.2023, CEO OpenAI Sam Altman cho biết: “Tôi quan tâm đến việc khám phá và phát triển mà không chỉ dừng lại ở tìm kiếm. Tôi muốn tạo ra công nghệ khác biệt và thú vị hơn hiện nay.”
Sự phát triển “thần tốc” của AI đã thu hút dòng vốn đầu tư mạo hiểm lên đến hàng tỉ đô la Mỹ vào công nghệ này. Dẫn đầu là thương vụ đầu tư 10 tỉ USD của Microsoft vào OpenAI, công ty hiện được định giá 80 tỉ USD.
Vào tháng 7.2023, startup AI Inflection ra mắt chatbot Pi và huy động thành công 1,3 tỉ USD cùng mức định giá 4 tỉ USD
Đến tháng 8.2023, Hugging Face, công ty sở hữu hàng ngàn mã nguồn mở cho mô hình AI, cũng chạm mốc vốn hóa thị trường 4 tỉ USD. Tháng 9.2023, Amazon công bố kế hoạch rót 4 tỉ USD vào công ty có tên Anthropic. Anthropic đã ra mắt chatbot riêng Claude 2.0 và đạt giá trị vốn hóa thị trường 18,4 tỉ USD, theo một nguồn tin thân cận.
Nhưng không phải công ty AI nào cũng gặp thuận lợi trong việc kêu gọi tài chính. Stability AI – startup nổi tiếng với mô hình AI Stable Diffusion có khả năng tạo hình ảnh từ văn bản – khó huy động vốn kể từ sau khi được định giá một tỉ USD.
Emad Mostaque, CEO Stability AI, đã đưa ra thông tin sai sự thật trình độ của mình cũng như lừa dối các nhà đầu tư về những thỏa thuận hợp tác chiến lược. Vào tháng 12.2023, một nghiên cứu của đại học Stanford phát hiện dữ liệu được dùng để đào tạo Stable Diffusion có chứa nội dung liên quan đến xâm hại tình dục trẻ em.
Dẫu vậy, sự bùng nổ của AI đã tạo ra nhiều kỳ lân công nghệ khác như Adept, công ty phát triển trợ lý AI có thể hỗ trợ con người duyệt web và vận hành phần mềm, cũng như Character AI có 20 triệu người sử dụng và tương tác với những nhân vật AI dựa trên các nhân vật nổi tiếng như Taylor Swift và Elon Musk.
Các startup AI hướng tới nhóm doanh nghiệp như Typeface, Writer và Jasper, những công ty giúp tự động hóa tác vụ như soạn mail và tổng hợp tài liệu dài, đã nhận về nhiều vốn đầu tư.
Nhưng trong cuộc đua phát triển AI, Google đang tụt lại phía sau khi mới mới ra mắt chatbot Bard và mô hình AI Gemini vào cuối năm 2023.
Trong một năm qua, sức ảnh hưởng từ AI ngày càng hiện rõ trong nhiều khía cạnh của cuộc sống. Tại Mỹ, các giáo viên từng lo ngại rằng học sinh sẽ sử dụng ChatGPT để gian lận bài thi, dẫn đến việc công cụ này bị cấm sử dụng ở những ngôi trường nổi tiếng nhất quốc gia này. Ngược lại, các bác sĩ và cơ sở bệnh viện bắt đầu sử dụng công cụ AI tạo sinh để không chỉ ghi chú, sắp xếp công việc mà còn chẩn đoán bệnh.
Về mặt bầu cử, trong khi một vài ứng viên ứng dụng trí tuệ nhân tạo để tương tác với cử tri cho chiến dịch tranh cử của mình, số khác lại dùng công nghệ này cho mục đích giả mạo danh tính nhằm công kích đối thủ.
Năm 2023 chứng kiến sự nổi lên từ các nội dung làm từ AI trên không gian mạng, dấy lên những lo ngại về các nội dung tiêu cực. Ví dụ, tin tức giả mạo làm từ AI được phát tán rộng rãi trên các nền tảng TikTok và YouTube.
Khi nội dung kém chất lượng, không qua kiểm chứng được tạo ra bằng AI trở nên phổ biến, ChatGPT đã gây gián đoạn và lo ngại đối với những người làm công việc tự do. Họ lo lắng rằng AI sẽ lấy đi công việc của mình khi công nghệ này có thể tạo ra nội dung nhanh hơn và tiết kiệm chi phí hơn.
Các công ty cũng sử dụng chatbot AI để sàng lọc, phỏng vấn và tuyển dụng nhân viên, dẫn đến lo ngại về sự thiên kiến và rủi ro liên quan đến chính sách cũng như công bằng. Không những vậy, những tội phạm mạng khai thác ChatGPT để viết mã độc và người khác dùng công nghệ này như công cụ theo dõi trên mạng xã hội.
Các tập đoàn như Microsoft và Google đã lập một nhóm “Red Team” với nhiệm vụ thực hiện các cuộc tấn công kỹ thuật phức tạp vào mô hình AI của hai công ty này để nâng cao mức độ bảo mật.
“Vẫn còn rất nhiều thách thức và câu hỏi xoay quanh AI cần được giải pháp. Chúng ta cần có những công cụ có thể phân tích, xác định vấn đề cũng như thiên kiến trong cơ sở dữ liệu dùng để đào tạo AI và một hệ thống có thể quản lý công nghệ này. Điều đó sẽ đảm bảo an toàn và sử dụng AI có đạo đức hơn,” Regina Barzila, giáo sư ngành kỹ thuật điện tử và khoa học máy tính tại MIT CSAIL, cho biết.
Nhóm công ty hàng đầu về AI như OpenAI, Stability AI và Anthropic đã bị các họa sĩ, nhà văn và nhà lập trình đệ đơn kiện vi phạm bản quyền. Nguyên nhân được đưa ra là công cụ của các công ty này được phát triển trên cơ sở dữ liệu sử dụng nội dung không có sự đồng thuận hoặc trả tiền bản quyền cho chủ sở hữu.
Chuyên gia về pháp lý Edward Klaris nhận định những vụ kiện tụng này sẽ mở ra các quy định mới về cách sử dụng AI từ văn phòng bản quyền Mỹ trong năm 2024.
“Một số người đã cảm thấy thất vọng khi thành quả của mình bị sử dụng trái phép cho dữ liệu đào tạo AI. Và họ muốn yêu cầu các công ty AI phải đăng ký và trả tiền bản quyền khi dùng sản phẩm của mình,” Klaris, CEO kiêm giám đốc quản lý của công ty về luật bản quyền sở hữu trí tuệ KlarisIP, cho biết.
Sau khi Liên minh châu Âu (EU) thông báo xây dựng đạo luật về AI, chính quyền tổng thống Joe Biden đã ký sắc lệnh hành pháp riêng đối với công nghệ này. Theo đó, Mỹ sẽ quy định các startup phải báo cáo cho chính phủ nước này nếu mô hình AI mà những công ty đó phát triển tiềm ẩn rủi ro về an ninh quốc gia.
Trong khi các hãng công nghệ ủng hộ sắc lệnh trên, những startup lại cho rằng điều đó có thể kìm hãm sự sáng tạo.
“Việc này sẽ thiết lập các quy định trong việc quản lý AI. Tuy nhiên, điều đó không thực sự thể hiện cách chúng ta sẽ áp dụng những quy định này như thế nào vào một số công nghệ, hay chỉ dẫn đảm bảo mức độ an toàn từ công cụ mà ta sử dụng,” Barzilla cho biết.
Năm 2023 cũng chứng kiến sự đối lập giữa những nhà lãnh đạo trong lĩnh vực AI, với quan điểm trái ngược về việc liệu AI nên được phát triển theo hướng mở hay đóng từ những tên tuổi lớn như Google, OpenAI và Anthropic.
Một vài người đưa ra mã nguồn mở AI dẫn đến những rủi ro về tính an toàn, khi bất kỳ ai cũng có thể sử dụng sai mục đích những mô hình này. Trong khi số khác, chẳng hạn như giám đốc khoa học Meta AI Yann LeCun – người giám sát quá trình phát triển mô hình AI mã nguồn mở Llama 2 của Meta, ủng hộ việc thử nghiệm mã nguồn mở theo hướng minh bạch.
“Các mô hình ngôn ngữ mã nguồn mở sẽ tiến tới việc đóng lại trong năm 2024,” Clement Delangue cho biết trong thông cáo báo chí.
Một sự kiện nổi bật đã diễn ra vào tháng 11.2023, khi hội đồng quản trị OpenAI thông báo sa thải Sam Altman với lý do CEO này “không trung thực.” Sau đó vài ngày, Sam Altman một lần nữa đảm nhiệm vai trò CEO khi một loạt nhân viên OpenAI dọa sẽ nghỉ việc nếu công ty không đưa anh trở lại.
Theo sau sự kiện này, OpenAI cũng bổ nhiệm các thành viên mới cho hội đồng quản trị, bao gồm Bret Taylor và Larry Summers.
Bước sang năm 2024, Delangue nhận định những câu hỏi quan trọng vẫn sẽ xoay quanh khía cạnh kinh tế từ AI, đặc biệt là liệu các startup có thể tạo ra lợi nhuận và mang về nguồn thu cho nhà đầu tư hay không.
Phần lớn mô hình AI hiện nay phụ thuộc vào GPU từ các tập đoàn bán dẫn như Nvidia và AMD, chi phí vận hành không đắt đỏ nhưng tiêu tốn nhiều năng lượng, yếu tố làm tăng phát thải carbon, do hệ thống cần được huấn luyện với nguồn dữ liệu khổng lồ.
“Trong năm 2024, phần lớn các công ty sẽ chuyển hướng sang mô hình AI nhỏ hơn, chi phí thấp hơn và thiết kế cho những công việc cụ thể, chiếm đến 99% trường hợp sử dụng công nghệ này,” Delangue cho biết.
1 năm trước
Ai học nhanh nhất sẽ thắng