OpenAI thay đổi hợp đồng với quân đội Mỹ sau làn sóng phản đối
OpenAI đã điều chỉnh thỏa thuận hợp tác với quân đội Mỹ sau khi hứng chịu chỉ trích từ giới công nghệ và nhân quyền. Công ty AI này ban đầu cấm sử dụng công nghệ cho mục đích quân sự nhưng đã nới lỏng chính sách vào năm 2024. Hợp đồng mới cho phép quân đội dùng mô hình AI của OpenAI thông qua nền tảng của Palantir Technologies. Louis Mosley, giám đốc Palantir UK, cho biết hệ thống tích hợp dữ liệu vệ tinh và báo cáo tình báo, giúp đưa ra "quyết định nhanh hơn, hiệu quả hơn và gây sát thương hơn khi cần thiết". OpenAI khẳng định sẽ có các biện pháp kiểm soát sử dụng nhưng chưa công bố chi tiết cụ thể.
Phân Tích Saigon Sentinel
Đây là bước ngoặt đáng chú ý trong cuộc tranh luận về đạo đức AI. OpenAI từng tự định vị là công ty phát triển trí tuệ nhân tạo "an toàn và có lợi cho nhân loại". Điều khoản cấm sử dụng quân sự trong chính sách ban đầu là một trong những cam kết cốt lõi thu hút cả tài trợ lẫn nhân tài. Nhưng thực tế kinh doanh đã thay đổi tính toán đó.
Hợp đồng với Palantir đặc biệt gây tranh cãi vì công ty này nổi tiếng với các dự án giám sát và phân tích dữ liệu cho quân đội, cơ quan tình báo và ICE (cơ quan di trú Mỹ). Việc kết hợp ChatGPT hoặc các mô hình ngôn ngữ của OpenAI với hệ thống phân tích quân sự có thể tạo ra công cụ cực kỳ mạnh mẽ trong việc xử lý thông tin chiến trường theo thời gian thực.
Câu nói "more lethal" của Mosley không phải ngẫu nhiên mà phản ánh đúng bản chất: AI quân sự được thiết kế để tối ưu hóa khả năng tiêu diệt. Đây không phải về phòng thủ hay nhân đạo, mà về lợi thế chiến thuật. Nhiều cựu nhân viên OpenAI đã từ chức phản đối hướng đi thương mại hóa quá nhanh này, cảnh báo về nguy cơ vũ khí tự động và mất kiểm soát.
Điều đáng lo hơn là việc thiết lập tiền lệ. Nếu OpenAI—công ty từng cam kết mạnh mẽ về an toàn AI—có thể đảo ngược lập trường, các công ty khác sẽ thấy ít rào cản hơn để theo đuổi hợp đồng quân sự béo bở. Microsoft, nhà đầu tư lớn nhất của OpenAI, vốn đã có hợp đồng tỷ đô với Lầu Năm Góc.
Cuộc đua AI toàn cầu đang thúc đẩy các công ty Mỹ hợp tác chặt với quân đội để cạnh tranh với Trung Quốc. Nhưng câu hỏi đạo đức vẫn còn đó: Khi AI có thể đưa ra quyết định sống còn trong vài giây, con người còn kiểm soát được gì? OpenAI nói có "biện pháp bảo vệ" nhưng từ chối công khai chi tiết—điều này khó thuyết phục những ai lo ngại về minh bạch.
