Trong các kế hoạch xây dựng AI siêu thông minh một cách an toàn, nhiều công ty đều đề cập đến một bước quan trọng: phát triển AI đủ mạnh để hỗ trợ nghiên cứu AI, nhưng chưa đạt đến mức đe dọa sự tồn vong của nhân loại. Sau đó, sử dụng nó để tăng tốc nghiên cứu an toàn (alignment research), với hy vọng giải quyết mọi vấn đề liên quan.
Quá trình này được gọi là “alignment bootstrapping” và là một phần trọng tâm trong kế hoạch của các công ty hàng đầu như DeepMind, Anthropic, và một số nhà nghiên cứu độc lập. Tuy nhiên, câu hỏi đặt ra là: liệu các công ty AI có thực sự dành nguồn lực cho việc này khi họ sở hữu AI cấp độ con người? Hay họ sẽ tập trung vào phát triển năng lực AI thay vì an toàn?
Mục lục
Thực tế đáng lo ngại
Hiện tại, các công ty AI đã có nhiều nhà nghiên cứu con người, nhưng chỉ một phần nhỏ trong số đó làm việc trên lĩnh vực an toàn AI. Nếu các công ty sử dụng AI cấp độ con người, liệu họ có phân bổ tương tự như cách họ sử dụng nhân lực hiện tại? Nghĩa là, phần lớn AI sẽ được dùng để tăng tốc phát triển năng lực, trong khi an toàn chỉ là thứ yếu.
Điều này có thể dẫn đến tình trạng năng lực AI vượt xa khả năng kiểm soát, và hậu quả có thể là thảm họa. Một số công ty biện minh rằng họ cần phát triển năng lực để duy trì tính cạnh tranh. Tuy nhiên, khi AI đạt đến mức gần nguy hiểm, việc tiếp tục tăng tốc phát triển sẽ trở nên rủi ro cao.
Thách thức trong triển khai “alignment bootstrapping”
Một vấn đề lớn là sự thiếu tin cậy vào AI khi nó thông minh hơn con người. Nếu chúng ta chưa biết cách “căn chỉnh” AI, làm sao chúng ta có thể tin rằng AI sẽ thực hiện công việc một cách an toàn? Các nhà nghiên cứu đã đề xuất một số ý tưởng ban đầu để đánh giá công việc của AI, nhưng sự tự tin vào hiệu quả của chúng vẫn còn mơ hồ.
Hơn nữa, các công ty AI hiện nay đang hành xử một cách thiếu thận trọng trong việc phát triển AI. Nếu họ thực sự muốn ưu tiên an toàn, họ cần chứng minh điều đó ngay từ bây giờ, chứ không phải đợi đến khi AI trở nên quá mạnh.
Kết luận
Việc sử dụng AI cấp độ con người để nghiên cứu an toàn là một ý tưởng đầy tiềm năng, nhưng cũng tiềm ẩn nhiều rủi ro. Nếu không được triển khai một cách cẩn trọng, alignment bootstrapping có thể không đạt được mục tiêu và dẫn đến những hậu quả khôn lường. Điều quan trọng là các công ty AI cần ưu tiên an toàn ngay từ giai đoạn này, thay vì chờ đợi đến khi quá muộn.
Cuối cùng, tương lai của AI phụ thuộc vào cách chúng ta cân bằng giữa phát triển năng lực và đảm bảo an toàn. Chỉ khi đạt được sự cân bằng này, nhân loại mới có thể tận dụng tối đa tiềm năng của AI mà không phải đối mặt với những rủi ro lớn.