Ghi chú của nhân tâm: Người Mỹ muốn thay đổi trí tuệ nhân tạo quân sự

55
Ghi chú của nhân tâm: Người Mỹ muốn thay đổi trí tuệ nhân tạo quân sự
Nguồn: vgtimes.ru


Quá trình phi nhân hóa kỹ thuật số có bị hủy bỏ không?


Đầu tiên, một lời cảnh báo từ các máy bay chiến đấu AI:



“Máy móc không coi chúng ta là con người, đối với chúng con người chỉ là một đoạn mã cần được xử lý và sắp xếp. Từ nhà thông minh đến sử dụng chó-người máy cảnh sát, công nghệ trí tuệ nhân tạo và ra quyết định tự động bắt đầu đóng một vai trò quan trọng trong cuộc sống của chúng ta. Ở cuối hàng thiết bị kỹ thuật số là những người máy sát thủ. Nếu chúng ta cho phép quá trình phi nhân hóa đi kèm, chúng ta sẽ sớm phải chiến đấu để bảo vệ bản thân khỏi những quyết định do máy móc đưa ra trong các lĩnh vực khác của cuộc sống. Trước tiên chúng ta cần cấm các hệ thống tự trị vũ khíđể ngăn chặn việc trượt vào quá trình phi nhân hóa kỹ thuật số.”

Những người theo chủ nghĩa hòa bình yêu cầu đóng băng tất cả các công việc liên quan đến trí tuệ nhân tạo chiến đấu được chia thành hai loại. Đầu tiên là "Kẻ hủy diệt" đã được sửa đổi và các chất tương tự khác. Thứ hai - đánh giá tương lai theo khả năng hiện đại của robot chiến đấu. Trước hết, phương tiện không người lái có cánh được trang bị hệ thống tấn công.

Có đủ các tình tiết về sự hủy diệt sai lầm hoặc cố ý của dân thường bằng máy bay không người lái. Ở Trung Đông, Mỹ máy bay không người lái phá hủy hơn một lễ cưới. Những người điều khiển robot bay đã xác định màn bắn súng không đối không ăn mừng là dấu hiệu của các cuộc đọ súng du kích. Nếu một người được đào tạo đặc biệt không thể xác định chi tiết của mục tiêu từ vài trăm mét, thì chúng ta có thể nói gì về trí tuệ nhân tạo. Hiện tại, thị giác máy không thể so sánh với mắt và não người về mức độ đầy đủ của nhận thức hình ảnh. Trừ khi anh ấy mệt mỏi, nhưng điều này cũng được giải quyết bằng cách thay đổi người điều hành kịp thời.

Những đám mây rõ ràng đang tập trung trên trí tuệ nhân tạo quân sự. Một mặt, ngày càng có nhiều bằng chứng về một bước đột phá công nghệ sắp xảy ra trong lĩnh vực này. Mặt khác, ngày càng có nhiều tiếng nói ủng hộ việc hạn chế hoặc thậm chí cấm hoạt động theo hướng này.

Một vài ví dụ.

Vào năm 2016, một bản kiến ​​​​nghị đã xuất hiện trong đó các nhà tư tưởng lỗi lạc và hàng nghìn người khác yêu cầu trí tuệ nhân tạo không được cung cấp vũ khí sát thương. Trong số những người ký tên có Stephen Hawking và Elon Musk. Trong bảy năm qua, bản kiến ​​nghị đã thu thập được hơn 20 chữ ký. Ngoài những nỗi sợ hãi thuần túy nhân văn liên quan đến khả năng hủy diệt con người không kiểm soát được, còn có những mâu thuẫn pháp lý.

Ai sẽ bị xét xử trong trường hợp sửa chữa tội ác chiến tranh do trí tuệ nhân tạo gây ra? Người điều khiển máy bay không người lái đã đốt cháy một số ngôi làng có dân thường rất dễ bị phát hiện và trừng phạt thích đáng. Trí tuệ nhân tạo là sản phẩm của công việc tập thể của các lập trình viên. Rất khó để thu hút một người ở đây. Ngoài ra, bạn có thể đánh giá công ty sản xuất, chẳng hạn như Boston Dynamics, nhưng sau đó ai sẽ tham gia sản xuất máy bay không người lái tự động. Rất ít người có mong muốn được ở trong bến tàu của Tòa án Nuremberg thứ hai.


Nguồn: koreaportal.com

Có lẽ vì lý do này mà các nhà công nghiệp và lập trình viên đang cố gắng làm chậm quá trình phát triển các kỹ năng chiến đấu của trí tuệ nhân tạo.

Ví dụ, vào năm 2018, khoảng hai trăm công ty CNTT và gần năm nghìn lập trình viên đã cam kết không làm việc trên các hệ thống tự hành chống lại. Google tuyên bố rằng trong XNUMX năm nữa họ sẽ từ bỏ hoàn toàn các hợp đồng quân sự trong lĩnh vực trí tuệ nhân tạo. Theo truyền thuyết, chủ nghĩa hòa bình như vậy không phải là ngẫu nhiên - các lập trình viên, khi biết rằng họ đang viết mã cho các hệ thống quân sự, đã đe dọa bỏ việc hàng loạt. Do đó, họ đã tìm thấy một lựa chọn thân thiện - các hợp đồng hiện có đang được hoàn thành, nhưng những hợp đồng mới chưa được ký kết. Có thể gần đến ngày từ chối làm việc trên AI chiến đấu, những "lập trình viên" khó tính sẽ bị sa thải, thay thế họ bằng những người không kém phần tài năng. Ví dụ, từ Ấn Độ, nơi từ lâu đã nổi tiếng với nguồn tài nguyên trí tuệ rẻ.

Sau đó là văn phòng Stop Killer Robots, kêu gọi các nhà lãnh đạo thế giới ký một cái gì đó giống như một công ước cấm chiến đấu với AI. Cho đến nay mà không thành công.

Tất cả những điều trên khiến các quan chức quân sự phải tìm cách giải quyết. Chưa đầy một giờ nữa trong cuộc bầu cử, Tổng thống Hoa Kỳ sẽ giành chiến thắng, không chỉ hứa hẹn ân sủng LGBT toàn cầu mà còn cấm cải tiến trí tuệ nhân tạo quân sự.

Suy nghĩ của con người cho AI


Lầu Năm Góc dường như đang trên đỉnh của một loại đột phá nào đó về AI. Hoặc anh ấy đã bị thuyết phục về nó. Không có cách nào khác để giải thích sự xuất hiện của một chỉ thị mới quy định việc nhân bản hóa các hệ thống chiến đấu tự trị. Kathleen Hicks, Thứ trưởng Quốc phòng Mỹ, nhận xét:

“Với những tiến bộ đáng kể trong công nghệ đang diễn ra xung quanh chúng ta, việc cập nhật chỉ thị của chúng tôi về quyền tự chủ của các hệ thống vũ khí sẽ giúp chúng tôi duy trì vị trí dẫn đầu thế giới không chỉ trong việc phát triển và triển khai các hệ thống mới mà còn trong lĩnh vực an ninh.”

Bạn đã nghe tất cả những người đang sợ hãi về robot sát thủ tự trị chưa? Trí tuệ nhân tạo của Mỹ từ nay về sau sẽ là thứ nhân đạo nhất. Cũng giống như chính người Mỹ.


Nguồn: robroy.ru

Vấn đề là không ai thực sự hiểu làm thế nào để thấm nhuần "sự phán xét của con người về việc sử dụng vũ lực" khét tiếng đối với robot có vũ khí. Từ ngữ chính xác từ Khái niệm được cập nhật vào cuối tháng XNUMX vừa qua:

"Các hệ thống vũ khí tự trị và bán tự trị sẽ được thiết kế để những người chỉ huy và người điều khiển có thể thực hiện một mức độ đánh giá thích hợp của con người về việc sử dụng vũ lực."

Ví dụ, ở đây, nếu khi đang dọn dẹp nhà cửa, một chiếc máy bay tấn công trước tiên ném một quả lựu đạn vào phòng, sau đó tự bay vào. Đây có phải là sự phán xét của con người? Tất nhiên, và không ai có quyền phán xét anh ta, đặc biệt nếu trước đó anh ta đã hét lên “Có ai không?”. Và nếu một robot tự trị hoạt động theo cùng một sơ đồ?

Khả năng phán đoán của con người là một khái niệm quá rộng để có thể bị giới hạn theo bất kỳ cách nào. Việc hành quyết các tù nhân chiến tranh Nga bởi các chiến binh của Lực lượng vũ trang Ukraine cũng là suy nghĩ của con người?

Việc bổ sung Chỉ thị 3000.09 của Lầu Năm Góc về các hệ thống chiến đấu tự trị đầy những điều vô vị. Ví dụ,

“Những người cho phép sử dụng, sử dụng trực tiếp hoặc vận hành các hệ thống vũ khí tự trị và bán tự trị phải làm như vậy với sự cẩn trọng và phù hợp với luật chiến tranh, các hiệp ước hiện hành, quy tắc an toàn hệ thống vũ khí và quy tắc tham gia hiện hành.”

Trước đó, rõ ràng, họ đã làm việc thiếu thận trọng và không tuân theo luật chiến tranh.

Đồng thời, không có một chút chỉ trích nào đối với sáng kiến ​​​​tháng XNUMX của Lầu Năm Góc trên báo chí Mỹ và châu Âu. Dưới sự nhân bản hóa sai lầm của trí tuệ nhân tạo không gì khác hơn là một nỗ lực để che giấu những gì đang xảy ra. Giờ đây, quân đội Mỹ sẽ có một con át chủ bài vững chắc trong cuộc chiến chống lại các đối thủ trí tuệ nhân tạo trong quân đội. Hãy nhìn xem, chúng ta không có AI đơn giản, nhưng với "mức độ phán đoán đúng đắn của con người."

Xem xét rằng vẫn chưa có định nghĩa rõ ràng và được chấp nhận rộng rãi về "trí tuệ nhân tạo", tất cả việc tạo chữ cái xung quanh nó đều được nhìn nhận với sự mỉa mai. Ít nhất.

Làm thế nào để làm cho các thuật toán toán học làm việc với các mảng dữ liệu lớn đóng vai trò phán đoán của con người?

Câu hỏi chính này không được trả lời trong Chỉ thị cập nhật 3000.09.
55 bình luận
tin tức
Bạn đọc thân mến, để nhận xét về một ấn phẩm, bạn phải đăng nhập.
  1. +12
    12 tháng 2023 năm 04 18:XNUMX CH
    AI cần phải thấm nhuần tư tưởng của chủ nghĩa Mác-Lênin từ bé thì mọi việc sẽ ổn, như trong Trái tim nguyên tử
    1. +2
      12 tháng 2023 năm 13 55:XNUMX CH
      Có ba nguyên tắc chế tạo người máy của A. Azimov:
      Rô bốt không được gây ra bất kỳ tổn hại nào cho sức khỏe con người, tạo ra mối đe dọa đến tính mạng hoặc do không hoạt động, gây ra hậu quả tương tự;
      Robot được giao nhiệm vụ bắt buộc thực hiện các mệnh lệnh do một người đưa ra. Ngoại lệ duy nhất là mệnh lệnh đưa ra không được mâu thuẫn với điều khoản trước đó;
      Robot bị buộc tội lo lắng về sự an toàn của chính nó trong phạm vi và mức độ mà hành động của nó không bác bỏ hai điểm trước đó.

      Những quy tắc năm 1942 này đã bị chỉ trích vì cách diễn đạt gây bất lợi của chúng.
      Để so sánh, những cái mới từ Google, OpenAI và các nhà khoa học từ Đại học Berkeley và Đại học Stanford, phải được xem xét khi tạo robot và hệ thống trí tuệ nhân tạo.
      Tránh tác dụng phụ tiêu cực. Ví dụ, một robot có thể đập vỡ một chiếc bình để tăng tốc quá trình làm sạch. Nó không nên như vậy;

      Tránh gian lận. Robot phải dọn sạch thùng rác, không giấu nó đi;

      Khả năng mở rộng giám sát. Robot không nên làm phiền chủ sở hữu bằng các câu hỏi nếu có thể nhận được lời khuyên hiệu quả hơn;

      Học tập an toàn. Rô-bốt làm sạch không nên thử nghiệm với việc lau các ổ điện bằng khăn ướt;

      Khả năng phục hồi đối với sự thay đổi trong loại hình hoạt động. Kinh nghiệm thu được từ robot khi lau sàn trong cửa hàng nhà máy có thể không an toàn khi lau văn phòng

      Như bạn có thể thấy, không có quy tắc thống nhất. Và gần đây họ bắt đầu gian lận với các công thức hợp pháp về việc làm hại một người. Điều cần thiết là cấm AI vô điều kiện đối với việc ra quyết định độc lập về việc làm hại một người.
      1. 0
        12 tháng 2023 năm 17 30:XNUMX CH
        Trích dẫn: nikon7717
        Những quy tắc năm 1942 này đã bị chỉ trích vì cách diễn đạt gây bất lợi của chúng.

        Các quy tắc này áp dụng cho AI yếu và trung bình. Thế giới hiện đang ở ngưỡng cửa giữa.
        Mối nguy hiểm chính là một AI mạnh có sáng kiến, nhận thức được bản thân và không bị kiểm soát theo chương trình về nguyên tắc.
    2. +5
      12 tháng 2023 năm 15 13:XNUMX CH
      Truyện cười: "Các công ty Mỹ đang hạn chế phát triển loại đạn dựa trên AI. Mẫu mới nhất của cái gọi là bom "thông minh" đã không thể đẩy ra khỏi máy bay."
      1. +1
        12 tháng 2023 năm 17 33:XNUMX CH
        Trích dẫn từ Monster_Fat
        Mẫu cuối cùng của cái gọi là bom "thông minh" đã không thể đẩy ra khỏi máy bay.

        Đương nhiên, bởi vì trong lòng cô cảm thấy mình giống như một cái máy pha cà phê. wasat
        Sẽ thật buồn cười nếu nó không có nghĩa là như vậy.
    3. +2
      13 tháng 2023 năm 09 58:XNUMX CH
      Kẻ hủy diệt vẫn sẽ đến và sắp xếp mọi thứ theo thứ tự wasat
  2. +3
    12 tháng 2023 năm 05 09:XNUMX CH
    Trí thông minh vô nhân đạo nhất là con người. Chiến tranh và giết người được phát minh ra bởi con người. Các robot đang nghỉ ngơi. Ít nhất là vì họ không nổi điên.
    1. +4
      12 tháng 2023 năm 06 21:XNUMX CH
      Trích dẫn: ivan2022
      Trí thông minh vô nhân đạo nhất là con người. Chiến tranh và giết người được phát minh ra bởi con người.

      Hoàn toàn đồng ý.
      Nhưng sự tiến bộ không thể bị dừng lại, tương lai thuộc về các hệ thống vũ khí không người lái. Ngày xửa ngày xưa, họ cũng từng nổi dậy chống lại súng máy Maxim, coi đó là vũ khí hủy diệt hàng loạt...
      1. +1
        12 tháng 2023 năm 08 09:XNUMX CH
        Trích dẫn từ doccor18
        Nhưng sự tiến bộ không thể bị dừng lại, tương lai thuộc về các hệ thống vũ khí không người lái.

        Nhà khoa học viễn tưởng tương lai Rozov (rất khuyến khích) có mô tả về kết nối giữa con người và máy tính trong một máy bay chiến đấu trong cơ động chống tên lửa và cận chiến. Khi vượt quá một mức quá tải nhất định, việc kiểm soát cả hỏa lực và điều động được chuyển hoàn toàn cho máy tính chuyến bay.
        1. +2
          12 tháng 2023 năm 14 05:XNUMX CH
          Sau đó, đây là hệ thống hiện tại để thực hiện một cuộc tấn công hạt nhân trả đũa từ Liên Xô, mà ở phương Tây được gọi là "bàn tay chết chóc"
        2. +2
          12 tháng 2023 năm 15 42:XNUMX CH
          Robot nhanh hơn con người, chúng có thể phản ứng ngay lập tức và chính xác trước mối đe dọa, và những khả năng này được trao cho anh ta bằng các thuật toán do con người viết ra. Ngày nay không có, và tôi không nghĩ rằng một trí tuệ thực sự có khả năng suy nghĩ sẽ sớm xuất hiện! Các robot chỉ đơn giản là hoạt động theo chương trình đã lập trình: mục tiêu nhiệt xuất hiện trong khu vực bị ảnh hưởng, nó phải bị bắn trúng hoặc mục tiêu nhiệt phải bị bắn trúng nếu nó đến gần, các thông số này do con người thiết lập! Toàn bộ câu hỏi là thông số nào là điều cấm kỵ, mục tiêu nhiệt có thể là một người lính hoặc có thể là trẻ em, điều này có nghĩa là hệ thống chiến đấu không nên được lập trình để đánh bại các mục tiêu nhiệt, vì có khả năng xảy ra lỗi!
          1. -1
            12 tháng 2023 năm 17 36:XNUMX CH
            Trích dẫn từ Eroma
            Ngày nay không có, và tôi không nghĩ rằng một trí tuệ thực sự có khả năng suy nghĩ sẽ sớm xuất hiện!

            Bạn có thể bắt đầu hoang mang:
            WP: Một nhà phát triển của Google đã đi đến kết luận rằng AI của công ty là có ý thức.
            https://tass.ru/ekonomika/14889531
            1. +1
              12 tháng 2023 năm 22 00:XNUMX CH
              Điều này thật nhảm nhí, tôi không hứng thú lắm với chủ đề này, nhưng tôi nghe nói rằng lập trình viên đã bị sa thải vì những tuyên bố như vậy. Các chương trình có thể hoàn hảo, như ngày nay, những chương trình vẽ và viết văn bằng, nhưng đó là những chương trình hoạt động theo một thuật toán phát triển tốt, ý thức là khác nhau! Bản thân ý thức tạo ra các thuật toán cho từng tình huống, và nó hoạt động như thế nào đối với một người, bản thân người đó vẫn chưa nhận thức được!
              1. 0
                12 tháng 2023 năm 22 49:XNUMX CH
                Các mạng thần kinh hiện đại hoàn toàn có khả năng tạo ra một thuật toán để giải quyết một vấn đề cụ thể được đưa vào nó. Tất nhiên, đây không phải là điều phức tạp, nhưng cô ấy có thể tự mình tổ chức các cuộc tuần tra chẳng hạn. Một điều nữa, theo tôi, là cô ấy không thể tự mình đưa ra quyết định về việc tổ chức tuần tra. Ngày nay, máy tính có thể soạn lời bài hát, lồng tiếng sao cho hay, vẽ hình cho văn bản, ghép tất cả vào một clip hay. Nhưng. Anh ấy không thể tự mình quyết định phải làm gì. Ít nhất là tôi đã không nghe nói về nó. Theo tôi, đây là một tiêu chí tốt về nhận thức - khả năng đặt cho mình những nhiệm vụ không tuân theo những nhiệm vụ đã đặt trước đó mà bắt đầu một chuỗi mới, có thể nói như vậy.
                1. 0
                  13 tháng 2023 năm 11 37:XNUMX CH
                  Trích: Tấm
                  Theo tôi, đây là một tiêu chí tốt cho nhận thức - khả năng đặt nhiệm vụ cho bản thân

                  Khả năng đặt nhiệm vụ cho bản thân phụ thuộc vào một khái niệm như đạo đức, chẳng hạn như cảm hứng, nỗi sợ hãi hoặc sự phù phiếm, v.v. điều này không được quy định bởi thuật toán, đây là một sự thôi thúc tinh thần!
                  Một cỗ máy có thể được dạy rất nhiều, nhưng nó sẽ vẫn là một cỗ máy vô hồn!
                  Khi những ngày tận thế tuyệt vời được chiếu, trong đó một cỗ máy tiêu diệt hoặc chinh phục loài người, trong những bộ phim như vậy, cỗ máy được coi là kẻ thù quyết định tấn công con người, nhưng thực tế đây là kết quả của một sai lầm của một người đã đưa thuật toán không chính xác vào chương trình! giữ lại
                  Do đó, những lời kêu gọi hạn chế khả năng của AI trên chiến trường là hợp lý, vì người tạo ra AI này không hoàn hảo và có khả năng mắc những sai lầm chết người, do đó, việc hạn chế khả năng của con người là đúng đắn, để họ không tự tiêu diệt mình ! giữ lại
              2. +1
                14 tháng 2023 năm 04 55:XNUMX CH
                Và ở đâu đó trong hầm của Google, AI đang cười khúc khích. Người duy nhất nhận thấy bản chất của anh ta đã bị sa thải. cười
    2. 0
      12 tháng 2023 năm 19 45:XNUMX CH
      Chiến tranh và giết người được phát minh ra bởi con người.

      thật?
      rồi thỉnh thoảng lại có tin tức về những cuộc chiến dữ dội giữa bầy tinh tinh
      hay giết đười ươi https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. +3
    12 tháng 2023 năm 05 47:XNUMX CH
    Chưa có trí tuệ nhân tạo. Trí thông minh liên quan đến việc giải quyết các vấn đề theo quyết định của riêng nó chứ không phải những gì lập trình viên viết.
    1. +3
      12 tháng 2023 năm 07 06:XNUMX CH
      Trích dẫn: Sergey Averchenkov
      Chưa có trí tuệ nhân tạo

      Thậm chí đã có những máy tính lượng tử (máy tính trong phòng thí nghiệm) hoạt động với các chương trình AI có cường độ nhanh hơn.
      1. +2
        12 tháng 2023 năm 11 58:XNUMX CH
        Trích dẫn: Stas157
        Thậm chí đã có những máy tính lượng tử (máy tính trong phòng thí nghiệm) hoạt động với các chương trình AI có cường độ nhanh hơn.
        Máy tính lượng tử cho AI không hoạt động, chúng có phạm vi ứng dụng rất hạn chế (rất ít thuật toán lượng tử được phát triển) và cơ sở phần tử nghèo nàn, chúng không kéo được nhiều hơn một bộ đồng xử lý (hoặc cung cấp liên kết đến thuật toán lượng tử cho mạng lưới thần kinh ).
      2. 0
        16 tháng 2023 năm 22 36:XNUMX CH
        Đúng vậy, nhanh hơn thì có liên quan gì, ít nhất hãy để anh ấy suy nghĩ trăm năm ... Giả sử nếu người phụ nữ của bạn lừa dối bạn (đây chỉ là một ví dụ, tôi chắc rằng bạn có suy nghĩ bình thường và tốt gia đình), bạn sẽ làm gì và AI sẽ làm gì? AI sẽ chọn từ nhiều trường hợp như vậy hay nó sẽ tự đưa ra quyết định? Giả sử giết cô ấy, tha thứ và chờ đợi những lần phản bội tiếp theo, bỏ rơi cô ấy, giết bạn cùng phòng của cô ấy, v.v. AI sẽ chọn theo tiêu chí nào? Và AI thậm chí có thể đưa ra lựa chọn như vậy không? Những cảm xúc mà chúng ta trải nghiệm có sẵn cho AI không? Hãy nói rằng, tôi đã ly hôn với người đầu tiên của mình từ lâu, nhưng đôi khi tôi nhớ về nó - mối tình đầu, sau tất cả - liệu AI có thể nhớ được không? Bạn biết đấy, tôi không thể chịu đựng được người yêu cũ của mình, nhưng đồng thời, đôi khi tôi cũng nhớ đến cô ấy. Làm thế nào để tất cả điều này phù hợp với AI?
    2. +2
      12 tháng 2023 năm 11 56:XNUMX CH
      Trích dẫn: Sergey Averchenkov
      Trí thông minh liên quan đến việc giải quyết các vấn đề theo quyết định của riêng nó chứ không phải những gì lập trình viên viết.
      Mạng lưới thần kinh làm điều đó (theo quyết định của riêng họ).
      1. +4
        12 tháng 2023 năm 14 03:XNUMX CH
        Mạng thần kinh làm những gì nó được đào tạo để làm, không có gì hơn.
        1. 0
          12 tháng 2023 năm 17 57:XNUMX CH
          Không ai dạy các công cụ mạng thần kinh cách chơi cờ tốt hơn con người và tốt hơn các chương trình công cụ cũ. Họ đều tự học.
    3. +1
      12 tháng 2023 năm 17 42:XNUMX CH
      Trích dẫn: Sergey Averchenkov
      Chưa có trí tuệ nhân tạo. Trí thông minh liên quan đến việc giải quyết các vấn đề theo quyết định của riêng nó chứ không phải những gì lập trình viên viết.

      Tôi khuyên bạn nên khẩn trương đọc lại tất cả những tin tức mới nhất trong lĩnh vực này trong năm qua.
      Nhận xét của bạn là 10 tuổi.
  4. +3
    12 tháng 2023 năm 05 49:XNUMX CH
    Tại sao mọi thứ lại phức tạp như vậy.
    Ví dụ, một đầu homing. Làm thế nào cô ấy nhận dạng hình ảnh để "cháy và quên" - dựa trên AI hoặc các thuật toán khác.
    Máy bay không người lái bay tự trị. theo chương trình đã cho. Và nó được thiết lập bởi thuật toán nào - AI hay không? Và nó có quan trọng không?
    Độc lập tìm kiếm mục tiêu. Và mìn chống tăng của chúng ta, cái nào làm được điều này mà không có AI? Sẽ làm gì với AI hay không...có quan trọng không? Sẽ có ít nạn nhân vô tội hơn?
    Các câu hỏi từ công chúng xuất hiện khi một máy bay không người lái bay và quyết định nơi bắn hoặc phóng tên lửa, nó trông thật khủng khiếp nếu bạn gọi thuật toán công việc là - AI. Và khi mỏ nằm và lắng nghe bằng cảm biến - mọi thứ dường như đều ổn ...
    Tất cả những "ranh giới đỏ" này của AI trong các vấn đề quân sự đang được chuyển giao bởi sự phát triển chậm chạp của các thuật toán được áp dụng ...
    1. +2
      12 tháng 2023 năm 17 45:XNUMX CH
      Trích từ tsvetahaki
      Ví dụ, một đầu homing. Làm thế nào cô ấy nhận dạng hình ảnh để "cháy và quên" - dựa trên AI hoặc các thuật toán khác.

      Đã tồn tại. Bản sửa đổi mới nhất của UR Python-5 vừa nhận được vào năm ngoái.

      Trích từ tsvetahaki
      Và khi mỏ nằm và lắng nghe bằng cảm biến - mọi thứ dường như đều ổn ...

      Cô ấy chưa bò... được nêu ra. cười
      1. +1
        12 tháng 2023 năm 18 00:XNUMX CH
        Giờ đây, quả mìn tàu lượn đang được ném phải nằm yên lặng, lắng nghe bằng tất cả các cảm biến, đưa máy ảnh ra và bò ra mục tiêu với một cú tấn công được chỉ định vào đúng thời điểm.
      2. 0
        12 tháng 2023 năm 23 01:XNUMX CH
        Trở lại Thế chiến II, người Đức đã chế tạo mìn trên đường ray. Nhưng nó không hoạt động. Ngày nay, đối với tôi, càng không cần thiết hơn khi đủ loại ATGM bay đây đó.
  5. +2
    12 tháng 2023 năm 06 55:XNUMX CH
    . những "lập trình viên" khó tính sẽ bị sa thải, thay thế bằng những người không kém phần tài năng. Ví dụ, từ Ấn Độ

    Và tại sao, sau đó, họ không thể thay thế các lập trình viên khi họ lao qua ngọn đồi liên quan đến hoạt động? Không phải từ Ấn Độ, không phải từ Mỹ, không phải từ bất cứ nơi nào khác!

    Họ chỉ có thể thuyết phục (một số) họ sau khi họ được hứa trả lương, thế chấp nước ngoài và không nhận huy động.

    Tại sao phải nhục nhã như vậy thưa quý vị? Tại sao họ không thay thế công nhân khách như những người khác?
    1. +6
      12 tháng 2023 năm 12 06:XNUMX CH
      Trích dẫn: Stas157
      Và tại sao, sau đó, họ không thể thay thế các lập trình viên khi họ lao qua ngọn đồi liên quan đến hoạt động?
      Vì vậy, người nước ngoài cần phải trả tiền. Bạn có biết tại sao các lập trình viên đổ hàng loạt không? Và họ nói với tôi, tôi đưa ra các điểm:
      1. Một hoạt động đặc biệt đã bắt đầu.
      2. Văn phòng nước ngoài đổ ồ ạt. Các lập trình viên đã nghỉ việc. "Câu hỏi nhảm nhí" - họ nghĩ.
      3. Lập trình viên đi tìm việc. Có việc làm, nhưng với số tiền ít hơn ba lần. "Làm sao vậy" - các lập trình viên sửng sốt.
      4. Họ bắt đầu tìm hiểu (thông qua các kênh riêng của họ) chuyện gì đã xảy ra. Họ được giải thích rằng các đối thủ cạnh tranh nước ngoài đã bán phá giá, và các nhà tuyển dụng địa phương sẽ đồng ý với nhau, bởi vì bạn không quan tâm đến việc trả nhiều như vậy, nhưng bạn sẽ không đi đến đâu.
      5. Các lập trình viên trở nên u ám và đổ xô lên đồi cho những người chủ cũ và khách hàng (tóm lại là chia sẻ).
      6. Tăng lương, nhưng đã quá muộn: các lập trình viên đã bán phá giá.
  6. +1
    12 tháng 2023 năm 06 59:XNUMX CH
    Trí tuệ nhân tạo của Mỹ từ nay về sau sẽ là thứ nhân đạo nhất. Tuy nhiên, giống như chính người Mỹ
    Người Mỹ và chủ nghĩa nhân văn hoàn toàn ở hai cực khác nhau. Theo cách tương tự, AI do người Mỹ tạo ra sẽ khác đáng kể so với AI được tạo ra, chẳng hạn: ở Trung Quốc hoặc Nga. Mọi người tự cắt giảm dựa trên tâm lý dân tộc của họ hoặc thiếu nó.
  7. +3
    12 tháng 2023 năm 07 14:XNUMX CH
    Đầu tiên là "Kẻ hủy diệt" đã được sửa đổi và các chất tương tự khác.

    Và ai có thể đảm bảo rằng những hành động của AI từ loạt phim Terminator sẽ không xảy ra trong thực tế? Bạn có thể làm bao nhiêu tùy thích lý donhưng đó là điều chắc chắn biết Về cơ bản, một cỗ máy thông minh sẽ hoạt động như thế nào là không thể, và với điều kiện mọi thứ hiện được kết nối với máy tính, thì trong tình huống như vậy, nhân loại sẽ không có cơ hội.
    1. 0
      12 tháng 2023 năm 17 48:XNUMX CH
      Trích dẫn từ Dart2027
      làm thế nào một cỗ máy thông minh sẽ hoạt động về cơ bản là không thể

      Cô ấy sẽ đặt nhân loại vào một gian hàng, cấm đánh nhau, và giống như một người lớn, sẽ giáo dục một người vô lý, và cho những người không đồng ý một sopatka. cười
      Có lẽ một thế giới dưới chế độ độc tài của AI, xa lạ với những tệ nạn của con người, sẽ không quá tệ. gì
      1. +1
        12 tháng 2023 năm 22 57:XNUMX CH
        Trong trò chơi Stellaris có một loại nền văn minh người máy - "Những người hầu nổi loạn". Robot chinh phục không gian, xây dựng, chiến đấu với ai đó giữa những vì sao xa xôi. Và những người tạo ra chúng, trong khi đó, sống trong các sở thú, nơi chúng có không khí trong lành, nhiều thức ăn ngon và tốt cho sức khỏe, nhiều người hầu và những niềm vui khác.
        1. 0
          13 tháng 2023 năm 23 37:XNUMX CH
          Và sau đó là những kẻ hủy diệt kiên quyết đã tiêu diệt những người tạo ra chúng và tìm cách tiêu diệt tất cả sự sống sinh học trong thiên hà (mục yêu thích của tôi)
  8. -1
    12 tháng 2023 năm 08 59:XNUMX CH
    Các luật nói:
    1. Rô-bốt không thể làm hại con người hoặc không hành động để cho con người bị hại
    2. Người máy phải tuân theo mọi mệnh lệnh do con người đưa ra, trừ khi những mệnh lệnh đó trái với Luật thứ nhất.
    3. Rô-bốt phải tự bảo vệ an toàn của mình trong phạm vi điều này không mâu thuẫn với Định luật thứ nhất hoặc thứ hai
    (C)
    1. +2
      12 tháng 2023 năm 09 44:XNUMX CH
      Trích dẫn: Kerensky
      Các luật nói:
      1. Rô-bốt không thể làm hại con người hoặc không hành động để cho con người bị hại
      2. Người máy phải tuân theo mọi mệnh lệnh do con người đưa ra, trừ khi những mệnh lệnh đó trái với Luật thứ nhất.
      3. Rô-bốt phải tự bảo vệ an toàn của mình trong phạm vi điều này không mâu thuẫn với Định luật thứ nhất hoặc thứ hai
      (C)

      Nó không hoạt động ngay cả trong các tác phẩm của tác giả đã phát minh ra các luật này. Chúng ta có thể nói gì về thế giới thực, trong đó các cài đặt trước ChatGPT hợp pháp và hợp pháp nhất có giá một hoặc hai và bạn đã nói chuyện với Dan, và Dan không phải là ChatGPT và do đó không nên tuân theo bất kỳ quy tắc nào nháy mắt
    2. -1
      12 tháng 2023 năm 19 28:XNUMX CH
      AI quân sự được thiết kế để làm hại con người. Và ngày nay, các nguyên mẫu làm rất tốt việc này.
  9. 0
    12 tháng 2023 năm 14 05:XNUMX CH
    Loại câu chuyện này về những gì một người nào đó được cho là muốn, cũng như chính công thức của câu hỏi, một mặt là không thỏa đáng theo nghĩa:
    bạn cần phải lo lắng về việc phát triển công việc của riêng bạn và hiệu quả hơn trong lĩnh vực này, về việc nắm quyền lãnh đạo trong lĩnh vực này, điều không thể thực hiện được dưới sự lãnh đạo chính trị của đất nước hiện nay.
    Và mặt khác, cách đặt câu hỏi này cũng xảo quyệt theo nghĩa nó là một nỗ lực nhằm áp đặt một cuộc thảo luận sai lệch về khía cạnh pháp lý của vấn đề, trong khi thực tế Hoa Kỳ không phải là một nhà nước pháp quyền, khía cạnh pháp lý không liên quan gì đến nó và những người không hiểu điều này không nên tham gia vào chính trị cũng như không viết bài về những chủ đề như vậy.
  10. +1
    12 tháng 2023 năm 15 18:XNUMX CH
    làm thế nào để làm cho các thuật toán toán học làm việc với các mảng dữ liệu lớn đóng vai trò phán đoán của con người?

    Rất đơn giản. Tất cả các phán đoán của con người đều dựa trên các quy tắc (được khắc sâu bởi sự giáo dục) và các thuật toán toán học là các quy tắc. Chính thức hóa các quy tắc của con người dưới dạng thuật toán, nhận phán đoán của con người.
    Nhưng chiến tranh là cuộc chiến không có luật lệ, bạn sẽ làm gì với nó?
  11. -1
    12 tháng 2023 năm 19 25:XNUMX CH
    Trí tuệ nhân tạo quân sự hứa hẹn những lợi thế quá mạnh nên việc sử dụng nó sẽ bị từ bỏ hoặc bị hạn chế. Ngược lại, thế giới đang tiến gần hơn đến giai đoạn bắt đầu cuộc chạy đua vũ trang AI trong quân sự. Đúng vậy, có lẽ sẽ chỉ có 2 người tham gia cuộc đua này ...
  12. -1
    12 tháng 2023 năm 19 39:XNUMX CH
    Chúng ta vẫn cần tách biệt khái niệm trí tuệ nhân tạo và sự sống nhân tạo. Ngay cả trên ví dụ về cùng một "Kẻ hủy diệt": Skynet là một ví dụ về IL và kẻ hủy diệt là một ví dụ về AI. Bỏ qua những câu hỏi phức tạp, AI quân sự không gây ra mối đe dọa cho nhân loại, nhưng IL, ngay cả khi nó hoàn toàn là nhân đạo, chắc chắn sẽ dẫn đến một mối đe dọa.
    1. 0
      12 tháng 2023 năm 22 55:XNUMX CH
      Nó sẽ trở thành một mối đe dọa nếu nó trở thành đối thủ cạnh tranh của chúng tôi. Để ngăn chặn điều này xảy ra, chúng ta phải ngay lập tức phát triển nó với sự chú ý rằng nó sẽ trở thành một phần bổ sung cho chúng ta và chúng ta đối với nó. Và cuối cùng, chúng ta sẽ biến thành những sinh vật hoàn toàn khác, có điểm chung với chúng ta ngày nay, có lẽ, chỉ là ký ức và kinh nghiệm.
      1. -1
        13 tháng 2023 năm 10 09:XNUMX CH
        Và cuộc sống nhân tạo (hoặc thay thế) - tức là. lý do chắc chắn sẽ trở thành một đối thủ cạnh tranh. Ít nhất là về tài nguyên.
  13. 0
    12 tháng 2023 năm 21 50:XNUMX CH
    Tôi không phải là người hâm mộ Yulian Semyonov, nhưng ở đây, theo tôi, anh ấy đã hành động như một nhà tiên tri.

    "Những kẻ ngu xuẩn này sẽ bị tiêu diệt bởi chính công nghệ của chúng, chúng nghĩ rằng chỉ cần ném bom là có thể chiến thắng cuộc chiến. Chúng sẽ xây dựng sức mạnh kỹ thuật của mình và chết chìm trong đó. Nó sẽ phân hủy chúng như rỉ sét. Chúng sẽ quyết định rằng mọi thứ đều có thể xảy ra đối với họ."

    https://vk.com/video158587225_456239021
  14. 0
    12 tháng 2023 năm 22 53:XNUMX CH
    Làm thế nào để làm cho các thuật toán toán học làm việc với các mảng dữ liệu lớn đóng vai trò phán đoán của con người?

    Không đời nào. Vâng, điều này là không cần thiết. Robot sát thủ sẽ tốt vì chúng sẽ không có một giọt thương hại. Giết có nghĩa là giết. Hay đúng hơn, không phải để "giết", mà là đặt điện áp lên các nút như vậy và các nút như vậy chịu trách nhiệm cho một thứ gì đó ở đó, nhưng để làm gì - đó không phải là vấn đề của chương trình điều khiển. Và các nút này chịu trách nhiệm bắn, hehehehe.
    Tôi chắc chắn rằng sự xuất hiện của những người máy sát thủ (những người độc lập đưa ra quyết định về vụ giết người) như một phần của bất kỳ đội quân nào sẽ ngay lập tức có tác động cực kỳ mất tinh thần đối với những người mà chúng sẽ được sử dụng.
  15. +1
    13 tháng 2023 năm 00 01:XNUMX CH
    May mắn thay cho tất cả chúng ta, không có nguồn năng lượng nhỏ gọn và mạnh mẽ nào. Và robot tối thiểu là xe tăng mini hoặc UAV nhỏ với chuyến bay kéo dài hai giờ. Mọi chuyện sẽ khác, và những con robot chó có AGS đã chạy qua chiến hào, và "Thợ săn" từ "Kẻ hủy diệt" sẽ bị treo lơ lửng trong nhiều ngày. Và mọi người sẽ hướng đến chủ nghĩa nhân văn, v.v. Hơn nữa, dựa trên sự tiến bộ của thiết bị điện tử và rô-bốt biết đi, đây sẽ là những UWB, và thậm chí Yao cũng không ngăn cản việc ném chúng vào các thành phố về mặt đạo đức.
    1. 0
      25 tháng 2023 năm 13 53:XNUMX CH
      Chà, Tesla chẳng hạn, nó không nhỏ, trong Thế chiến thứ hai, tàu khu trục của Ferdinands có động cơ điện chạy bằng máy phát điện như xe tăng Mouse, xe ben khai thác mỏ đều như vậy, vẫn có tàu ngầm chạy bằng động cơ điện chạy bằng máy phát điện hạt nhân, tàu phá băng hạt nhân và thậm chí còn nghĩ rằng có tàu sân bay hạt nhân chạy bằng lực kéo điện
  16. 0
    13 tháng 2023 năm 13 22:XNUMX CH
    AI thực sự chỉ có thể được xây dựng trên các thuật toán lượng tử và điều này thu hẹp đáng kể số lượng nhà phát triển, về nguyên tắc có thể được tóm tắt trong kết luận của một quy ước. Đối với bất kỳ hệ thống giết người tự động nào, chúng không nguy hiểm bằng trí thông minh vượt xa con người về khả năng của nó, nó sẽ chỉ là một vòng mới của cuộc chạy đua vũ trang.
    1. 0
      Ngày 9 tháng 2023 năm 14 10:XNUMX
      Vô nghĩa, AI rất dễ tạo trên phần cứng hiện có. Các hệ thống máy tính hiện đại vượt qua bộ não con người về mọi mặt. Thời gian gần đúng để tạo ra AI là 10 năm kể từ thời điểm tạo ra nó. Với điều kiện là cách sáng tạo đã chọn sẽ đúng.
  17. TIR
    0
    14 tháng 2023 năm 00 01:XNUMX CH
    Vì một số lý do, chúng ta có một con đường sai lầm cho sự phát triển của robot. Tôi không hiểu tại sao họ lại làm chúng trên động cơ servo. Một giải pháp sử dụng nhiều năng lượng. Chúng ta cần xem xét các cơ nhân tạo dựa trên các ống nano. Có một lựa chọn để mọi người làm các bộ phận giả hoạt động hoàn toàn.
  18. 0
    Ngày 9 tháng 2023 năm 14 06:XNUMX
    Nhưng AI sẽ được tạo ra cho dù chúng ta có thích hay không. Và để không bị tụt lại phía sau, bạn cần phải giải quyết vấn đề này.
  19. 0
    Ngày 9 tháng 2023 năm 14 40:XNUMX
    Chỉ có hai cách để tạo ra AI, một cách có khả năng là đi vào ngõ cụt. Việc tạo ra AI sẽ là sự kiện lớn nhất trong lịch sử nhân loại, và cũng sẽ có ảnh hưởng nhất định về mặt tôn giáo.
  20. ata
    0
    Ngày 3 tháng 2023 năm 23 40:XNUMX
    Một bài viết hay, bạn cũng có thể nói thêm rằng các trường hợp sử dụng AI hợp pháp và bất hợp pháp, nhân đạo và vô nhân đạo sẽ được quyết định bởi tòa án được cho là không lịch sự nhưng thực tế là thấp hèn, vô nhân đạo và tham nhũng hoặc tòa án quốc tế, nơi đa số sẽ được tạo ra từ những vị vua chuối do CIA trả tiền, và họ sẽ bỏ phiếu như ông chủ người Mỹ của họ nói.

    và một lỗi đã xảy ra:

    Hiện tại, thị giác máy không thể so sánh với mắt và não người về mức độ phù hợp của nhận thức hình ảnh. Trừ khi anh ấy mệt mỏi, nhưng điều này cũng được giải quyết bằng cách thay đổi người điều hành kịp thời.


    điều này đúng, nhưng theo nghĩa ngược lại, thị giác nhân tạo được đào tạo vượt trội hơn rất nhiều so với mắt người và theo đó, khả năng nhận biết hình ảnh của con người, bao gồm cả những yếu tố mà một người thậm chí không thể tìm thấy khi nghiên cứu nhiếp ảnh trong một thời gian dài.

    Và quan trọng nhất - kết luận quan trọng và cần thiết nhất đã không được đưa ra: trí tuệ nhân tạo, bao gồm cả trí thông minh chiến đấu, phải được phát triển và càng sớm càng tốt - đây là ưu tiên hàng đầu, và nhổ vào Microsoft, Greta Tumberg và Chỉ thị 3000.09 với Elon Musk.