tin tưc hăng ngay
vị trí của bạn:tin tưc hăng ngay > Tin tức > Vũ khí được điều khiển bởi AI? Nhân loại đối mặt với “khoảnh khắc Oppenheimer”

Vũ khí được điều khiển bởi AI? Nhân loại đối mặt với “khoảnh khắc Oppenheimer”

thời gian:2024-06-19 11:48:43 Nhấp chuột:154 hạng hai
{1[The Epoch Times, ngày 10 tháng 5 năm 2024] (Phóng sự bởi Wu Ruichang, phóng viên Ban đặc biệt của Epoch Times) Sự phát triển và ứng dụng AI ngày càng trở nên phổ biến, nhưng mọi người cũng ngày càng lo lắng rằng AI sẽ chiếm lĩnh mất việc làm của họ, và thậm chí cả AI Nó có thể điều khiển vũ khí hủy diệt hàng loạt và gây ra những tổn thất không thể khắc phục cho nhân loại. Quan chức Áo thậm chí còn thẳng thắn cho rằng nhân loại đang ở trong “thời điểm Oppenheimer” của AI.

Paul Dean, phó trợ lý chính thư ký của Cục Kiểm soát vũ khí, Răn đe và Ổn định Hoa Kỳ, đã tuyên bố trong một cuộc họp ngắn trực tuyến vào đầu tháng 5 rằng Hoa Kỳ, Vương quốc Anh và Pháp Họ đều "hứa ​​hẹn rõ ràng" rằng Việc triển khai và kiểm soát vũ khí hạt nhân chỉ có thể được quyết định và kiểm soát bởi con người, đồng thời họ từ chối AI kiểm soát hoặc xác định việc sử dụng vũ khí hạt nhân.

Ông cũng nói: “Chúng tôi hoan nghênh Trung Quốc (ĐCSTQ) và Nga đưa ra những tuyên bố tương tự. Tôi cho rằng đây là một quy tắc ứng xử có trách nhiệm cực kỳ quan trọng và tất cả năm thành viên thường trực của Hội đồng Bảo an Liên hợp quốc đều đã đưa ra cam kết này. điều này sẽ rất quan trọng."

Kỹ sư máy tính người Nhật Kiyohara Jin nói với The Epoch Times vào ngày 7 tháng 5: “AI là một sản phẩm dựa trên phân tích dữ liệu và nó rất khác với phán đoán của con người. Con người có lý trí, cảm xúc và những hạn chế về đạo đức, nhưng AI không có những điều này. , và dữ liệu có thể sai nếu được phép kiểm soát bom hạt nhân, sẽ khủng khiếp như việc Đảng Cộng sản Trung Quốc, Iran và các quốc gia độc tài khác làm chủ vũ khí sinh học và hóa học.”

BẮN CÁ AI đã bước vào giai đoạn thực hành

Trên thực tế, AI đã được sử dụng rộng rãi trong quân đội, chẳng hạn như xe tăng có khả năng phát hiện tự động, máy bay không người lái tự động tìm kiếm và tấn công mục tiêu, chó cơ khí có thể tấn công bằng lửa hoặc đạn cũng như các vũ khí trang bị AI khác. đã thực sự bước vào giai đoạn chiến đấu thực tế. Mọi người lo lắng rằng những vũ khí được hỗ trợ bởi AI này sẽ mở rộng sang những loại vũ khí có tính sát thương cao hơn.

Trưa ngày 5 tháng 5, Căn cứ Không quân Edwards ở California đã thử nghiệm một máy bay chiến đấu F-16 có bề ngoài màu cam và trắng, được đặt tên là "X-62A" và "VISTA" (Máy bay thử nghiệm mô phỏng chuyến bay biến thiên).

Bộ trưởng Không quân Hoa Kỳ Frank Kendall đã có chuyến đi đặc biệt đến đây để xem và trải nghiệm máy bay chiến đấu F-16 do AI điều khiển. Máy bay chiến đấu được điều khiển bởi AI và Kendall ngồi bên trong. Nó tiến hành một cuộc diễn tập không chiến với một máy bay chiến đấu F-16 khác do người thật điều khiển trong hơn một giờ. , liên tục vặn vẹo, xoay tròn, cố gắng ép đối thủ vào tình thế không thể chống trả.

本月,雄鹿满月将发生在美国东部时间7月21日早上6点17分。这意味着它将达到其最高照度,即月亮正式变为满月的那一刻,并且实际上与从地球上看到的太阳正好相反。因此,月亮达到其最满和最圆的程度。这也意味着,在世界上和北美的许多地方,当月亮真正变成“满月”的那一刻将无法看到月亮。下一秒,严格说来,它不再是满的。

正如美国国家航空航天局(NASA)局长比尔·纳尔逊(Bill Nelson)在一份声明中所说的那样,“韦伯望远镜拍摄了来自宇宙各个角落的非凡图像。”

类星体是一种明亮的活跃星系核心,本质上是位于星系中心的超大质量黑洞,由于吞噬气体和尘埃而释放出巨大能量,从而发出强大闪光。

Sau cuộc tập trận, Kendall bày tỏ niềm tin rằng AI vẫn đang trong quá trình học hỏi có khả năng quyết định xem có phóng vũ khí trong chiến tranh hay không.

Nhà điều hành quân sự của VISTA cũng tuyên bố rằng không có quốc gia nào trên thế giới có máy bay chiến đấu AI như vậy. AI này lần đầu tiên học hàng triệu dữ liệu trong một trình mô phỏng và kiểm tra dữ liệu mà nó học được trong các chuyến bay thực tế.

Tuy nhiên, một số chuyên gia kiểm soát vũ khí phản đối việc AI kiểm soát vũ khí quá mức vì họ lo ngại một ngày nào đó AI có thể tự động thả bom hoặc các vũ khí mạnh hơn để giết người mà không có sự kiểm soát của con người, nên họ tìm kiếm những hạn chế chặt chẽ hơn và hy vọng rằng nó có thể củng cố kiểm soát AI.

Ủy ban Chữ thập đỏ quốc tế cũng cảnh báo rằng hiện nay người dân đang lo lắng về việc giao quyền quyết định sinh tử cho những vũ khí tự động loại AI này, vì vậy cộng đồng quốc tế cần phải có các phương án khẩn cấp để ứng phó với tình trạng này.

Nhà bình luận quân sự Xia Luoshan nói với The Epoch Times vào ngày 9 tháng 5: “Việc kiểm soát vũ khí hạt nhân bằng AI là một trong những vấn đề của AI quân sự, mặc dù nó vẫn chưa xảy ra, nhưng theo đà phát triển AI của con người hiện nay, có khả năng xảy ra. Do đó, Hoa Kỳ và phương Tây hy vọng thế giới có thể đạt được sự đồng thuận về vấn đề AI không kiểm soát vũ khí hạt nhân. Tác hại do việc ứng dụng AI trong các vấn đề quân sự có thể là không thể khắc phục được.”

AI trở thành khoảnh khắc Oppenheimer tiếp theo

Ngoài những cảnh báo từ Hội Chữ thập đỏ và một số chuyên gia, tại Hội nghị Hệ thống vũ khí tự động Vienna tổ chức ở Áo vào cuối tháng trước, thêm nhiều chuyên gia kêu gọi tất cả các nước cùng thảo luận về việc kiểm soát việc quân sự hóa AI. Các quan chức dân sự, quân sự và kỹ thuật từ hơn 100 quốc gia đã thảo luận về việc kiểm soát việc quân sự hóa AI của quốc gia họ. Bộ trưởng Ngoại giao Áo Alexander Schallenberg đã thẳng thắn phát biểu tại hội nghị: "AI là thời điểm Oppenheimer của thế hệ chúng ta." (Thời điểm Oppenheimer có nghĩa là ngã tư của lịch sử)

Câu này đề cập đến thời điểm nhà vật lý lý thuyết người Mỹ Oppenheimer tham gia và phát triển thành công bom nguyên tử, mang lại chiến thắng cho Hoa Kỳ và quân Đồng minh nên ông được mệnh danh là "Cha đẻ của bom nguyên tử". Tuy nhiên, Oppenheimer đã chứng kiến ​​thảm họa do bom nguyên tử gây ra cho người Nhật và những vết sẹo không thể xóa nhòa mà nó để lại trên trái đất, điều này khiến ông phải suy nghĩ xem liệu quyết định giúp phát triển bom nguyên tử của mình có đúng đắn hay không.

Schallenberg nói: "Nhân loại đang ở ngã ba đường trong lịch sử và vũ khí tự động sẽ có mặt trên khắp các chiến trường trên thế giới. Hiện tại, máy bay không người lái và các máy móc liên quan đến AI có mặt khắp nơi trên chiến trường và chúng ta cũng đang phải đối mặt với vấn đề Pháp lý, đạo đức và an toàn vấn đề”

.

Ông cho rằng thế giới cần khẩn trương thiết lập các quy tắc và chuẩn mực quốc tế đã được thống nhất trong lĩnh vực AI để ngăn chặn AI vượt khỏi tầm kiểm soát do sai sót và thành kiến ​​cực đoan, dẫn đến sự tuyệt chủng của loài người và cái chết hàng loạt. Mọi người cần đảm bảo (vũ khí) được điều khiển bởi con người chứ không phải AI.

Hitoshi Kiyohara đồng tình với ý kiến ​​của Schallenberg. Ông nói: “Tuy nhiên, tuân thủ đạo đức là cách duy nhất để đảm bảo con người sẽ không đi đến chỗ tự hủy diệt. Nếu đạo đức không theo kịp sự phát triển của vũ khí hay công nghệ, con người sẽ dễ lạc lối và bỏ qua nhận thức về an toàn”. ◇

(Các phóng viên Zhang Zhongyuan và Wang Jiayi đã đóng góp cho bài viết này)

Biên tập viên: Lian Shuhua#

Đường dây nóng dịch vụ
Trang web chính thức:www.lnfsat.com
Thời gian hoạt động:Thứ Hai đến Thứ Bảy(09:00-18:00)
liên hệ chúng tôi
Trang web chính thức:http:lnfsat.com/
Theo dõi tài khoản công khai

Powered by tin tưc hăng ngay bản đồ RSS bản đồ HTML

Copyright 站群系统 © 2013-2024 Trung tâm Tin tức Đã đăng ký Bản quyền