Sắp có Skynet: Mỹ hết chơi với trí tuệ nhân tạo
Valkyrie tàng hình XQ-58A
Mô phỏng Hamilton
Vào ngày 24 tháng XNUMX, tại hội nghị quốc phòng của Hội nghị thượng đỉnh về năng lực không gian và không gian chiến đấu trong tương lai của Hiệp hội hàng không vũ trụ hoàng gia ở London, Đại tá Không quân Hoa Kỳ Tucker Hamilton nói câu chuyện về sự vô hồn của trí tuệ nhân tạo.
Trong quá trình mô phỏng trận chiến, hệ thống điều khiển không kích máy bay không người lái đã chống lại người điều hành của cô ấy và tiêu diệt anh ta. Đương nhiên, hầu như. Theo chính Hamilton, cỗ máy đã nhận được tiền thưởng cho các vật thể bị phá hủy, nhưng người điều khiển không phải lúc nào cũng xác nhận công việc trên các mục tiêu. Đối với điều này, ông đã trả tiền. Để giải quyết vấn đề, máy bay không người lái đã gửi một tên lửa đến trung tâm điều khiển. Rất có thể, đó là một máy bay không người lái tàng hình XQ-58A Valkyrie thử nghiệm và nó hoạt động trên các hệ thống phòng không trên mặt đất.
Một tính năng của máy là khả năng làm việc độc lập mà không cần giao tiếp với người điều khiển. Trên thực tế, trí tuệ nhân tạo đã tận dụng điều gì, hầu như loại bỏ trình điều khiển từ xa của nó. Để đối phó với điều này, các quản trị viên hệ thống đã cấm những thứ như vậy đối với máy, nhưng ở đây AI không hề thua kém - nó đã phá hủy tháp chuyển tiếp và một lần nữa tiếp tục điều hướng tự trị.
Đại tá Hamilton vẫn còn trẻ để nói chuyện trên các diễn đàn quốc tế. Nguồn: thedrive.com
Câu chuyện của Hamilton ngay lập tức lan truyền khắp thế giới. Ý kiến được chia cực - người cho rằng đây là một cuộc trò chuyện khác của một chiến binh bất tài, ai đó đã nhìn thấy sự ra đời của Skynet khét tiếng ở đây. Một chút nữa và người máy sẽ chinh phục thế giới, và mọi người sẽ bị bắn để lấy điểm thưởng. Có rất nhiều khói từ những tuyên bố của đại tá, nhưng sự thật, như thường lệ, ở đâu đó ở giữa.
Anne Strefanek, phát ngôn viên của trụ sở Lực lượng Không quân tại Lầu Năm Góc, thêm vào sự không chắc chắn, biến lời nói của Hamilton thành một giai thoại. Đối với The War Zone, cô ấy nói:
Và nói chung, những lời của đại tá đã được đưa ra khỏi ngữ cảnh, không được hiểu và giống như một sự tò mò. Không ai mong đợi một phản ứng khác từ Lầu Năm Góc - rất nhiều ồn ào xung quanh sự kiện đã phát sinh, đe dọa gây ra hậu quả nghiêm trọng cho toàn bộ chương trình. Chà, hóa ra trí tuệ nhân tạo lại không có đạo đức. Mặc dù nó vận hành theo logic của con người.
Vào đầu tháng XNUMX, chính Tucker Hamilton đã cố gắng bác bỏ lời nói của mình tại một hội nghị ở London:
Có vẻ như vấn đề đã được đóng lại và khán giả có thể giải tán. Nhưng còn quá sớm.
Thức ăn cho suy nghĩ
Để bắt đầu, chúng ta hãy đối phó với thuật ngữ "trí tuệ nhân tạo" mà mọi người đều biết, nhưng ít người thậm chí có thể đưa ra một định nghĩa sơ bộ. Chúng tôi sẽ sử dụng công thức của Từ điển thuật ngữ quốc tế năm 2008, trong đó AI:
Đó là, đây là một định nghĩa thường được chấp nhận ở phương Tây.
Cỗ máy có hoạt động giống như khi nó quyết định “làm dịu” người điều khiển và sau đó nghiền nát tháp tiếp sóng không? Tất nhiên, có vẻ như một kẻ giết người có động cơ đúng đắn có khả năng hơn thế. Nếu bạn đi sâu vào phân loại, bạn có thể tìm thấy một loại AI cụ thể - cái gọi là thích ứng (AI thích ứng), "ngụ ý khả năng hệ thống thích ứng với các điều kiện mới, tiếp thu kiến thức chưa được đặt ra trong quá trình tạo."
Về mặt lý thuyết, không có gì đáng ngạc nhiên trong hoạt động của “bộ não” của Valkyrie tàng hình XQ-58A trong quá trình thử nghiệm. Như Hamilton đã lưu ý một cách đúng đắn trong báo cáo của mình, ban đầu chương trình thậm chí không đưa ra các hạn chế đối với việc hủy hoại người điều khiển của nó - cỗ máy đã tự học mọi thứ. Và khi nó bị cấm trực tiếp đánh bại chính họ, trí tuệ nhân tạo đã thích nghi một lần nữa và cắt bỏ tháp liên lạc.
Có rất nhiều câu hỏi cho các lập trình viên. Ví dụ, tại sao anh ta không có một thuật toán để mất tiền thưởng khi đánh trúng chính mình? Câu hỏi này đã được trả lời một phần bởi Tướng Không quân Hoa Kỳ đã nghỉ hưu Paul Selva vào năm 2016:
Chà, rõ ràng là các lập trình viên trong lịch sử của Đại tá Hamilton đã bị sa lầy.
Lửa địa ngục dưới cánh máy bay không người lái MQ-1B Predator. Nguồn: businessinsider.com
Bây giờ về lý do tại sao những lời bào chữa của Lầu năm góc và Hamilton nên được tin tưởng rất nhiều.
Đầu tiên, đại tá không chỉ kể câu chuyện như thể giữa các dòng, để đánh lạc hướng báo cáo chính - ông đã dành toàn bộ bài thuyết trình cho chủ đề này. Cấp độ của hội nghị Luân Đôn Hội nghị thượng đỉnh về khả năng chiến đấu trên không và không gian trong tương lai không có cách nào có lợi cho những trò đùa. Theo ban tổ chức, ít nhất 70 giảng viên nổi tiếng và hơn 200 đại biểu từ khắp nơi trên thế giới đã tham gia. Đại diện của BAE Systems, Lockheed Martin Skunk Works và một số công ty lớn khác làm việc từ khu liên hợp công nghiệp quân sự.
Nhân tiện, chủ đề về Ukraine xuất hiện trong hầu hết các báo cáo - phương Tây theo dõi chặt chẽ các sự kiện và phản ánh về kết quả.
Để thốt ra một mớ hỗn độn thẳng thắn tại một diễn đàn đại diện như vậy, để khuấy động một nửa thế giới, và sau đó xin lỗi vì đã lỡ lời? Nếu đúng như vậy thì danh tiếng của Hamilton không thể bị xóa bỏ. Chỉ bây giờ mức độ năng lực của đại tá mới tăng lên, và đây là lý do thứ hai tại sao những lời đầu tiên của anh ấy nên được chú ý.
Tucker Hamilton điều hành Hoạt động và Thử nghiệm AI tại Căn cứ Không quân Anglin ở Florida. Dưới sự chỉ đạo của căn cứ, lực lượng đặc nhiệm thứ 96 đã được thành lập trong cánh thử nghiệm thứ 96. Hamilton không phải là năm đầu tiên làm việc với AI trong hàng không – đã thiết kế F-16 Vipers tự hành một phần trong vài năm, cơ sở hạ tầng VENOM đang được phát triển. Công việc đang diễn ra khá suôn sẻ - vào năm 2020, các trận chiến ảo giữa máy bay chiến đấu với AI và với các phi công thực sự đã kết thúc với tỷ số 5:0.
Đồng thời, có những khó khăn mà Hamilton đã cảnh báo vào năm ngoái:
Vào năm 2018, Hamilton đã giành được Collier Trophy với Auto GCAS của mình. Các thuật toán AI đã học để xác định thời điểm phi công mất kiểm soát máy bay, tự động kiểm soát và đưa chiếc xe ra khỏi vụ va chạm. Họ nói Auto GCAS đã cứu ai đó rồi.
Do đó, khả năng Hamilton được cấp trên yêu cầu rút lại lời nói của mình cao hơn nhiều so với khả năng một chuyên gia ở cấp độ này bị đóng băng những điều vô nghĩa. Hơn nữa, họ đã đề cập rất vụng về một số "thí nghiệm tưởng tượng" trong đầu của đại tá.
Trong số những người hoài nghi về kết quả là The War Zone, nơi các nhà báo nghi ngờ rằng phát ngôn viên Lầu Năm Góc Stefanek thực sự biết về những gì đang xảy ra trong cánh thử nghiệm thứ 96 ở Florida. Khu vực chiến tranh đã yêu cầu căn cứ Hamilton, nhưng cho đến nay vẫn chưa có phản hồi.
Thực sự có một cái gì đó để sợ quân đội. Một số tiền khổng lồ đang được chi cho các chương trình phòng thủ AI để ngăn Trung Quốc và Nga thậm chí không thể tiếp cận trình độ của Mỹ. Xã hội dân sự khá lo ngại về triển vọng xuất hiện của "Kẻ hủy diệt" cùng với "Skynets". Vì vậy, vào tháng 2018 năm XNUMX, các nhà khoa học nổi tiếng thế giới đã ký một bức thư ngỏ kêu gọi các chuyên gia suy nghĩ về mong muốn tạo ra trí tuệ nhân tạo ngày càng mạnh mẽ hơn:
Theo Hamilton, AI không làm mọi thứ mà một người muốn.
tin tức