Mặc dù chưa có ngày ra mắt chính thức nhưng theo nhiều nguồn thông tin rò rỉ, Chat GPT-5 có thể sẽ được ra mắt vào cuối năm 2025 hoặc chậm nhất là đến đầu năm 2026. Trong thời gian này, GPT-5 sẽ tiếp tục được nâng cấp và được dự báo sẽ tạo ra nhiều bất ngờ hơn cho toàn thế giới.
Trí thông minh của GPT-5 sẽ đạt tới cấp độ tiến sĩ
Trong một cuộc phỏng vấn gần đây với Dartmouth Engineering, Giám đốc Công nghệ OpenAI bà Mira Murati đã mô tả khoảng cách về khả năng giữa GPT-4 và GPT-5. “Nếu nhìn vào quỹ đạo cải tiến, các hệ thống như GPT-3 có lẽ ở mức trí thông minh của trẻ mới biết đi,” Bà Murati nói. “Và sau đó, các hệ thống như GPT-4 thì giống như trí thông minh của học sinh trung học. Và rồi, trong vài năm tới, chúng tôi đang hướng tới trí thông minh cấp độ tiến sĩ cho các nhiệm vụ cụ thể. Mọi thứ đang thay đổi và cải thiện khá nhanh chóng.”
Bà Murati cũng xác nhận rằng trí thông minh “cấp độ Tiến sĩ” này cũng chỉ dành cho một số tác vụ cụ thể nào đó, còn với đại đa số các tác vụ khác mô hình AI này vẫn kém xa con người.
CTO của Microsoft, Kevin Scott mới đây cũng bày tỏ quan điểm tương tự. Scott tin rằng, thế hệ GPT tiếp theo sẽ có trí nhớ và khả năng suy luận mạnh mẽ hơn, đủ trình độ tham gia các kỳ thi tiến sĩ.
Trước đó, CEO OpenAI, ông Sam Altman cũng tiết lộ nhiều thông tin về GPT-5. Ông Altman cho biết thế hệ thứ năm của GPT có thể là một bước ngoặt lớn và khoảng cách giữa GPT-5 và GPT-4 dự kiến sẽ lớn như sự tiến bộ giữa GPT-4 và GPT-3. Tuy nhiên, ông vẫn chưa tiết lộ mốc thời gian cụ thể phát hành và các thông số cụ thể của GPT thế hệ thứ 5 này.
Đề cao tính an toàn trong AI
Sự cải thiện trí thông minh của GPT-5 không những được thể hiện ở khả năng lý luận mà vấn đề bảo mật AI cũng được phát triển đồng bộ. Murati đã chỉ ra trong cuộc phỏng vấn rằng, việc hướng dẫn một hệ thống AI thông minh hơn và việc đào tạo để tránh một số hành vi nhất định luôn được chú trọng phát triển.
Bà tin rằng nghiên cứu về bảo mật và trí thông minh có thể song hành với nhau: trước khi đào tạo một mô hình, khả năng tiềm ẩn của sản phẩm có thể được dự đoán và các biện pháp an toàn có thể được tăng cường dần dần trong quá trình đào tạo.
Đồng thời, bà Murati nhấn mạnh rằng trách nhiệm về bảo mật AI không chỉ thuộc về các công ty phát triển sản phẩm mà phải là trách nhiệm chung của toàn xã hội, bao gồm cả chính phủ, người sáng tạo nội dung,…
Các doanh nghiệp luôn muốn đưa các sản phẩm AI ra thị trường để công chúng hiểu được tiềm năng cũng như rủi ro của chúng. Về việc liên kết các giá trị, Mulati cũng tin rằng sản phẩm nên được tiếp cận với nhiều nhóm người dùng hơn để tiếp thu các giá trị đa dạng hơn.
Vào cuối năm ngoái, OpenAI đã phát hành khung bảo mật, tiến hành đánh giá rủi ro trên các mô hình bằng cách đánh giá và chấm điểm các chỉ số rủi ro tiềm ẩn, đồng thời thực hiện các biện pháp bảo mật tương ứng.
Tuy nhiên, các chuyên gia cho rằng cách tiếp cận này vẫn có những sai sót nhất định. Lý do bởi các thành viên của Ủy ban Cố vấn An ninh được thành lập vào tháng 5 năm nay đều là nhân sự nội bộ của công ty nên tính độc lập và hiệu quả của những thông báo trên cũng bị công chúng nghi ngờ
Nguồn Tổng hợp