‘t want to find out Nếu một AI siêu thông minh bị lộ ra thì sẽ xảy ra gì? OpenAI không muốn tìm ra được.

by admin
‘t-want-to-find-out

neu-mot-ai-sieu-thong-minh-bi-lo-ra-thi-se-xay-ra-gi?-openai-khong-muon-tim-ra-duoc.

OpenAI đã công bố tuần này rằng họ đang xây dựng một nhóm để “kiểm soát và điều khiển các hệ thống AI không thể so sánh với chúng ta”. AI có thể đến trong thập kỷ tới sẽ là công nghệ có ảnh hưởng lớn nhất mà đã được tạo ra và có thể giúp giải quyết những vấn đề quan trọng nhất của thế giới. Tuy nhiên, cũng có một cảnh báo khá nghiêm trọng rằng nó “cũng có thể rất nguy hiểm và có thể dẫn đến sự mất quyền của con người hoặc thậm chí là tuyệt chủng con người”.

Nhóm mới, được dẫn đầu bởi nhà khoa học chủ yếu hiện tại của nhà nghiên cứu và người đứng đầu hiện tại của sự điều chỉnh, sẽ bao gồm các nhà nghiên cứu và kỹ sư hàng đầu của OpenAI, cùng với 20% tài nguyên tính toán hiện tại của họ. Mục tiêu cuối cùng là tạo ra một “nhà nghiên cứu điều chỉnh tự động có mức độ gần như bằng con người”, hoặc một hệ thống AI đạt được mục tiêu và không bị ngoài các tham số đã đặt. Nhóm kế hoạch thực hiện điều này bằng ba bước: phát triển một hiểu biết về cách AI phân tích AI khác mà không có sự tương tác của con người; sử dụng AI để tìm kiếm bất kỳ vùng lỗi hoặc lợi dụng nào; và cố ý làm sai một số AI để xem xét nếu đó được phát hiện.

Tóm lại, một nhóm con người tại OpenAI đang sử dụng AI để giúp họ đào tạo AI để giữ AI siêu thông minh dưới sự kiểm soát. Và họ nghĩ rằng họ sẽ hoàn thành nó trong bốn năm. Họ thừa nhận rằng đây là một mục tiêu khó khăn, và thành công không được đảm bảo, nhưng họ tin tưởng vào công việc của mình.
Khởi nghiệp OpenAI đã có một công khai lý tưởng vào một thực tế đen tối hơn trong cuộc thi lập trình của họ để giới thiệu AI siêu thông minh mà họ đã làm. Những kết quả này, tuy nhiên, không được lộ ra bởi OpenAI, bởi vì họ lo lắng rằng có thể có vấn đề an ninh và động lực cá nhân mà lộ ra sẽ gây ra.

Khi ý tưởng là hệ thống AI siêu thông minh được lộ ra, các nhà khoa học và chuyên gia mạng xã hội thấy sức ép lớn để cải tiến các nền tảng an ninh hiện có. Từ đó, không gian công nghệ của chúng ta có thể trở nên ít an toàn hơn. Bằng cách mở ra AI siêu thông minh, sự hấp dẫn của những quan điểm bên lề hoặc các mạng nhãn hiệu có thể sẽ trở nên nghiêm trọng hơn.

Bên cạnh đó, AI siêu thông minh cũng có thể được sử dụng để can thiệp vào các hệ thống điều khiển qua mạng, điều này có thể gây ra sự động cơ to lớn đối với các cuộc thảo luận hội nhập tự do, do đó cản trở việc mở ra sự tự do trên mạng.

Do đó, OpenAI đã thực sự không muốn lộ ra AI siêu thông minh của họ. Kết quả cuối cùng là họ sẽ tu ân sự an toàn và tránh những cách để cải thiện cơ chế kiểm soát để tiếp tục đảm bảo sự an toàn cho người dùng cũng như cộng đồng.

You may also like

Leave a Comment