Trí tuệ nhân tạo. Phần thứ hai: Tuyệt chủng hay bất tử?

60
Trí tuệ nhân tạo. Phần thứ hai: Tuyệt chủng hay bất tử?


Đây là phần thứ hai của bài viết trong loạt bài "Đợi đã, làm sao tất cả những điều này có thể là sự thật, tại sao nó vẫn chưa được nói đến trên mọi ngóc ngách." Trong loạt phim trước, người ta đã biết rằng sự bùng nổ trí thông minh đang dần len lỏi vào con người trên hành tinh Trái đất, nó đang cố gắng phát triển từ trí thông minh tập trung hẹp sang trí thông minh phổ quát của con người và cuối cùng là siêu trí tuệ nhân tạo.

“Có lẽ chúng ta có một vấn đề cực kỳ khó khăn trước mắt và không biết bao nhiêu thời gian được phân bổ cho việc giải quyết nó, nhưng tương lai của nhân loại có thể phụ thuộc vào giải pháp của nó.” - Nick Bostrom.


Phần đầu tiên của bài báo bắt đầu khá ngây thơ. Chúng ta đã thảo luận về trí tuệ nhân tạo tập trung hẹp (AI, chuyên giải quyết một nhiệm vụ cụ thể như xác định lộ trình hoặc chơi cờ), trong thế giới của chúng ta có rất nhiều loại trí tuệ nhân tạo. Sau đó, chúng tôi đã phân tích lý do tại sao rất khó để phát triển trí tuệ nhân tạo đa năng (GAI hoặc AI, về khả năng trí tuệ có thể được so sánh với một người trong việc giải quyết bất kỳ vấn đề nào) từ AII. Chúng tôi kết luận rằng tốc độ tiến bộ công nghệ theo cấp số nhân gợi ý rằng AGI có thể sẽ sớm ra mắt. Cuối cùng, chúng tôi quyết định rằng một khi máy móc đạt đến mức độ thông minh của con người, những điều sau đây có thể xảy ra ngay lập tức:






Như thường lệ, chúng tôi nhìn vào màn hình, không tin rằng siêu trí tuệ nhân tạo (AI, thông minh hơn nhiều so với bất kỳ người nào) có thể xuất hiện trong cuộc đời của chúng tôi và chọn những cảm xúc phản ánh đúng nhất quan điểm của chúng tôi về vấn đề này.

Trước khi đi sâu vào các chi tiết cụ thể của ASI, chúng ta hãy tự nhắc lại ý nghĩa của việc một cỗ máy trở nên siêu thông minh.

Sự khác biệt chính nằm giữa siêu trí tuệ nhanh và siêu trí tuệ định tính. Thông thường, điều đầu tiên xuất hiện trong đầu khi nghĩ về một chiếc máy tính siêu thông minh là nó có thể suy nghĩ nhanh hơn con người rất nhiều - nhanh hơn hàng triệu lần và trong năm phút, con người có thể hiểu được những gì mà một người phải mất mười năm mới làm được. ("Tôi biết kung fu!")

Nghe có vẻ ấn tượng và ASI thực sự nên suy nghĩ nhanh hơn bất kỳ ai trong số mọi người - nhưng đặc điểm khác biệt chính sẽ là chất lượng trí thông minh của nó, một điều hoàn toàn khác. Con người thông minh hơn nhiều so với khỉ, không phải vì họ suy nghĩ nhanh hơn, mà vì bộ não con người chứa một số mô-đun nhận thức khéo léo thực hiện các biểu diễn ngôn ngữ phức tạp, lập kế hoạch dài hạn, tư duy trừu tượng, điều mà loài khỉ không có khả năng. Nếu bạn ép xung bộ não của một con khỉ hàng nghìn lần, nó sẽ không trở nên thông minh hơn chúng ta - thậm chí trong mười năm, nó sẽ không thể lắp ráp bộ thiết kế theo hướng dẫn, điều này sẽ khiến một người mất tối đa vài giờ. Có những thứ mà một con khỉ sẽ không bao giờ học được, cho dù nó có bỏ ra bao nhiêu giờ hay bộ não của nó hoạt động nhanh đến đâu.

Ngoài ra, con khỉ không biết làm người, bởi vì bộ não của nó đơn giản là không thể nhận ra sự tồn tại của các thế giới khác - con khỉ có thể biết con người là gì và tòa nhà chọc trời là gì, nhưng sẽ không bao giờ hiểu rằng tòa nhà chọc trời là gì do con người xây dựng. Trong thế giới của cô ấy, mọi thứ đều thuộc về tự nhiên và chú khỉ không những không thể xây dựng một tòa nhà chọc trời mà còn hiểu rằng bất kỳ ai cũng có thể xây dựng được nó. Và đây là kết quả của một sự khác biệt nhỏ về chất lượng của trí thông minh.

Trong sơ đồ chung về trí thông minh mà chúng ta đang nói đến, hay đơn giản là theo tiêu chuẩn của các sinh vật sinh học, sự khác biệt về chất lượng trí thông minh của loài người và vượn là rất nhỏ. Trong bài viết trước, chúng tôi đã đặt nhận thức sinh học trên một bậc thang:



Để hiểu mức độ nghiêm trọng của một cỗ máy siêu thông minh, hãy đặt nó cao hơn con người hai bậc trên chiếc thang này. Cỗ máy này có thể hơi siêu thông minh, nhưng ưu thế của nó so với khả năng nhận thức của chúng ta cũng giống như ưu thế của chúng ta đối với loài khỉ. Và giống như một con tinh tinh không bao giờ có thể hiểu được rằng có thể xây dựng một tòa nhà chọc trời, chúng ta có thể không bao giờ hiểu được một cỗ máy cao hơn vài bước sẽ hiểu điều gì, ngay cả khi cỗ máy đó cố gắng giải thích điều đó cho chúng ta. Và nó chỉ là một vài bước. Một cỗ máy thông minh hơn sẽ coi chúng ta như những con kiến ​​- nó sẽ dạy chúng ta những điều đơn giản nhất trong nhiều năm từ vị trí của nó, và những nỗ lực này sẽ hoàn toàn vô vọng.

Loại siêu trí tuệ mà chúng ta sắp nói đến ngày hôm nay nằm ngoài bậc thang đó. Đây là sự bùng nổ của trí thông minh - khi máy móc càng trở nên thông minh hơn thì nó có thể tăng trí thông minh của chính mình càng nhanh, dần dần tăng dần động lực. Có thể mất nhiều năm để một cỗ máy như vậy vượt qua tinh tinh về trí thông minh, nhưng có lẽ vài giờ để đánh bại chúng ta một hoặc hai bước. Kể từ thời điểm này, chiếc xe đã có thể nhảy qua bốn bước mỗi giây. Đó là lý do tại sao chúng ta nên hiểu rằng ngay sau lần đầu tiên tin tức rằng cỗ máy đã đạt đến trình độ thông minh của con người, chúng ta có thể phải đối mặt với thực tế cùng tồn tại trên Trái đất với thứ gì đó sẽ cao hơn chúng ta rất nhiều trên nấc thang này (có thể cao hơn hàng triệu lần):



Và vì chúng ta đã xác định rằng việc cố gắng hiểu sức mạnh của một cỗ máy chỉ hơn chúng ta hai bậc là hoàn toàn vô ích, hãy xác định một lần dứt điểm rằng không có cách nào để hiểu ASI sẽ làm gì và hậu quả của nó là gì. cái này sẽ dành cho chúng ta. Bất cứ ai tuyên bố khác chỉ đơn giản là không hiểu siêu trí tuệ nghĩa là gì.

Sự tiến hóa đã phát triển bộ não sinh học một cách từ từ và dần dần qua hàng trăm triệu năm, và nếu con người tạo ra một cỗ máy siêu thông minh, thì ở một khía cạnh nào đó, chúng ta sẽ vượt qua sự tiến hóa. Hoặc nó sẽ là một phần của quá trình tiến hóa - có lẽ cách thức hoạt động của quá trình tiến hóa là trí thông minh phát triển dần dần cho đến khi đạt đến điểm bùng phát báo trước một tương lai mới cho mọi sinh vật:



Vì những lý do mà chúng ta sẽ thảo luận sau, phần lớn cộng đồng khoa học tin rằng câu hỏi không phải là liệu chúng ta có đạt đến điểm bùng phát này hay không, mà là khi nào.

Chúng ta sẽ ở đâu sau chuyện này?

Tôi không nghĩ bất cứ ai trên thế giới này, tôi hay bạn, sẽ có thể biết điều gì sẽ xảy ra khi chúng ta đạt đến điểm bùng phát. Nhà triết học Oxford và nhà lý thuyết AI hàng đầu Nick Bostrom tin rằng chúng ta có thể chia tất cả các kết quả có thể xảy ra thành hai loại lớn.

Đầu tiên, nhìn vào câu chuyện, chúng ta biết những điều sau về sự sống: các loài xuất hiện, tồn tại trong một thời gian nhất định, rồi chắc chắn rơi khỏi nhật ký cân bằng sự sống và chết đi.



"Tất cả các loài đều chết" là một quy luật đáng tin cậy trong lịch sử giống như "tất cả con người đều chết vào một lúc nào đó." 99,9% các loài đã rơi khỏi khúc gỗ sự sống, và rõ ràng là nếu một loài ở trên khúc gỗ này quá lâu, một cơn gió tự nhiên hoặc một thiên thạch bất ngờ sẽ lật đổ khúc gỗ đó. Bostrom gọi sự tuyệt chủng là một trạng thái hấp dẫn, một nơi mà tất cả các loài cân bằng để tránh rơi vào một nơi mà từ đó chưa có loài nào quay trở lại.

Và trong khi hầu hết các nhà khoa học thừa nhận rằng ASI sẽ có khả năng khiến con người tuyệt chủng, nhiều người cũng tin rằng việc khai thác sức mạnh của ASI sẽ cho phép các cá nhân (và cả loài nói chung) đạt được trạng thái thứ hai của chất hấp dẫn, sự bất tử của loài. . Bostrom tin rằng sự bất tử của một loài cũng giống như một yếu tố thu hút giống như sự tuyệt chủng của các loài, nghĩa là, nếu chúng ta đạt đến điểm đó, chúng ta sẽ phải cam chịu sự tồn tại vĩnh cửu. Do đó, ngay cả khi tất cả các loài cho đến ngày nay đã rơi từ chiếc gậy này xuống vực tuyệt chủng, Bostrom tin rằng khúc gỗ có hai mặt, và đơn giản là không có một trí thông minh nào trên Trái đất hiểu được cách rơi xuống phía bên kia.



Nếu Bostrom và những người khác đúng, và từ tất cả thông tin có sẵn cho chúng ta thì họ rất có thể đúng, chúng ta cần phải chấp nhận hai sự thật rất sốc:

Sự xuất hiện của ASI lần đầu tiên trong lịch sử sẽ mở ra khả năng cho một loài đạt được sự bất tử và thoát khỏi vòng tuyệt chủng chết người.
Sự ra đời của ASI sẽ có tác động to lớn ngoài sức tưởng tượng đến mức rất có thể nó sẽ đẩy nhân loại ra khỏi nhật ký này theo hướng này hay hướng khác.
Rất có thể khi sự tiến hóa đạt đến đỉnh điểm như vậy, nó luôn đặt dấu chấm hết cho mối quan hệ của con người với dòng chảy cuộc sống và tạo ra một thế giới mới, có hoặc không có con người.

Điều này dẫn đến một câu hỏi thú vị mà chỉ những người lười biếng mới không hỏi: khi nào chúng ta sẽ đạt đến điểm bùng phát này và nó sẽ đặt chúng ta ở đâu? Không ai trên thế giới biết câu trả lời cho câu hỏi kép này, nhưng rất nhiều người thông minh đã cố gắng tìm ra nó trong nhiều thập kỷ. Phần còn lại của bài viết, chúng tôi sẽ tìm hiểu những gì họ đã đến.

* * *


Hãy bắt đầu với phần đầu tiên của câu hỏi này: khi nào chúng ta nên đạt đến điểm bùng phát? Nói cách khác: còn bao nhiêu thời gian nữa cho đến khi cỗ máy đầu tiên đạt đến siêu trí tuệ?

Ý kiến ​​​​khác nhau tùy theo từng trường hợp. Nhiều người, bao gồm Giáo sư Vernor Vinge, nhà khoa học Ben Goertzel, người đồng sáng lập Sun Microsystems Bill Joy và nhà tương lai học Ray Kurzweil, đã đồng ý với chuyên gia máy học Jeremy Howard khi ông trình bày biểu đồ sau tại TED Talk:



Những người này chia sẻ quan điểm rằng ASI sẽ sớm ra mắt - sự tăng trưởng theo cấp số nhân này, có vẻ chậm đối với chúng ta ngày nay, sẽ bùng nổ theo đúng nghĩa đen trong vài thập kỷ tới.

Những người khác, như nhà đồng sáng lập Microsoft Paul Allen, nhà tâm lý học nghiên cứu Gary Marcus, chuyên gia máy tính Ernest Davis và doanh nhân công nghệ Mitch Kapor, cho rằng những nhà tư tưởng như Kurzweil đang đánh giá thấp nghiêm trọng mức độ nghiêm trọng của vấn đề và cho rằng chúng ta chưa đến mức đỉnh điểm. điểm.

Phe Kurzweil phản bác rằng sự đánh giá thấp duy nhất đang diễn ra là bỏ qua sự tăng trưởng theo cấp số nhân, và những người hoài nghi có thể được so sánh với những người đã nhìn vào sự phát triển chậm chạp của Internet vào năm 1985 và lập luận rằng nó sẽ không có tác động gì đến thế giới trong tương lai gần. .

Những người "nghi ngờ" có thể phản bác rằng tiến bộ khó thực hiện từng bước hơn khi nói đến trí thông minh theo cấp số nhân, điều này loại bỏ bản chất cấp số nhân điển hình của tiến bộ công nghệ. Và như thế.

Phe thứ ba, bao gồm Nick Bostrom, không đồng ý với phe thứ nhất và phe thứ hai, lập luận rằng a) tất cả những điều này hoàn toàn có thể xảy ra trong tương lai gần; và b) không có gì đảm bảo rằng điều này sẽ xảy ra hoặc mất nhiều thời gian hơn.

Những người khác, như nhà triết học Hubert Dreyfus, tin rằng cả ba nhóm này đều tin một cách ngây thơ rằng sẽ có một điểm bùng phát, và rất có thể chúng ta sẽ không bao giờ đạt được ASI.

Điều gì xảy ra khi chúng ta cộng tất cả những ý kiến ​​này lại với nhau?

Vào năm 2013, Bostrom đã tiến hành một cuộc thăm dò, trong đó ông đã phỏng vấn hàng trăm chuyên gia trí tuệ nhân tạo trong một loạt hội nghị về chủ đề sau: "Dự đoán của bạn để đạt được AGI ở cấp độ con người là gì?" và yêu cầu một năm lạc quan (trong đó chúng tôi sẽ có AGI với 10% cơ hội), một dự đoán thực tế (một năm mà chúng tôi sẽ có 50% cơ hội có AGI) và một dự đoán chắc chắn (năm sớm nhất mà AGI sẽ xuất hiện với xác suất 90 - phần trăm). Đây là kết quả:

* Năm lạc quan trung bình (10%): 2022
* Năm thực tế trung bình (50%): 2040
* Năm bi quan trung bình (90%): 2075

Những người được hỏi trung bình tin rằng trong 25 năm nữa, chúng ta sẽ có nhiều khả năng mắc AII hơn là không. 90 phần trăm cơ hội mắc AIS vào năm 2075 có nghĩa là nếu bây giờ bạn vẫn còn khá trẻ, điều đó có thể xảy ra trong đời bạn.

Một nghiên cứu riêng biệt gần đây của James Barratt (tác giả của cuốn sách nổi tiếng và rất hay Phát minh mới nhất của chúng ta, trích từ Tôi đã trình bày để bạn đọc chú ý Hi-News.ru) và Ben Herzel tại hội nghị AGI hàng năm, Hội nghị AGI, vừa trình bày ý kiến ​​của mọi người về năm mà chúng ta đạt được AGI: vào năm 2030, 2050, 2100, muộn hơn hoặc không bao giờ. Đây là kết quả:

* 2030: 42% số người được hỏi
* 2050: 25%
* 2100: 20%
Sau năm 2100: 10%
Không bao giờ: 2%
Tương tự với kết quả của Bostrom. Trong cuộc thăm dò của Barratt, hơn hai phần ba số người được hỏi tin rằng AGI sẽ có mặt vào năm 2050 và chưa đến một nửa tin rằng AGI sẽ có mặt trong 15 năm tới. Điều đáng chú ý là chỉ có 2% những người được khảo sát hoàn toàn không nhìn thấy AGI trong tương lai của chúng ta.

Nhưng AGI không phải là công cụ thay đổi cuộc chơi như ASI. Theo các chuyên gia, khi nào chúng ta sẽ có ASI?

Bostrom đã hỏi các chuyên gia khi nào chúng ta sẽ đạt được ASI: a) hai năm sau khi đạt được AIS (nghĩa là gần như ngay lập tức do sự bùng nổ của trí thông minh); b) sau 30 năm. Kết quả?

Ý kiến ​​trung bình cho rằng sự chuyển đổi nhanh chóng từ AGI sang ASI sẽ xảy ra với xác suất 10%, nhưng trong 30 năm hoặc ít hơn nó sẽ xảy ra với xác suất 75%.

Từ dữ liệu này, chúng tôi không biết ngày mà người trả lời sẽ cho là 50% cơ hội ASI, nhưng dựa trên hai câu trả lời ở trên, hãy giả sử đó là 20 năm. Tức là các chuyên gia hàng đầu thế giới trong lĩnh vực AI đều tin rằng bước ngoặt sẽ đến vào năm 2060 (AII sẽ xuất hiện vào năm 2040 + mất 20 năm để chuyển từ AGI sang ASI).



Tất nhiên, tất cả các thống kê trên chỉ là suy đoán và chỉ đại diện cho ý kiến ​​​​của các chuyên gia AI, nhưng chúng cũng chỉ ra rằng hầu hết những người liên quan đều đồng ý rằng ASI có thể sẽ xuất hiện vào năm 2060. Chỉ 45 năm sau.

Hãy chuyển sang câu hỏi thứ hai. Khi chúng ta đạt đến điểm bùng phát, chúng ta sẽ quyết định đứng về phía nào của sự lựa chọn định mệnh?

Siêu trí tuệ sẽ có sức mạnh mạnh mẽ nhất, và câu hỏi quan trọng đối với chúng ta sẽ là:

Ai hoặc cái gì sẽ kiểm soát sức mạnh này và động lực của họ là gì?

Câu trả lời cho câu hỏi này sẽ phụ thuộc vào việc liệu ASI có được một sự phát triển cực kỳ mạnh mẽ, một sự phát triển vô cùng đáng sợ hay điều gì đó ở giữa.

Tất nhiên, cộng đồng chuyên gia cũng đang cố gắng trả lời những câu hỏi này. Cuộc thăm dò của Bostrom đã phân tích khả năng xảy ra những hậu quả có thể xảy ra do tác động của AGI đối với nhân loại và nhận thấy rằng với 52% khả năng mọi thứ sẽ diễn ra rất tốt và với 31% khả năng mọi thứ sẽ trở nên tồi tệ hoặc cực kỳ tồi tệ. Cuộc thăm dò được đính kèm ở cuối phần trước của chủ đề này, được thực hiện giữa các bạn, những độc giả thân mến của Hi-News, cho thấy kết quả tương tự. Đối với một kết quả tương đối trung lập, xác suất chỉ là 17%. Nói cách khác, tất cả chúng ta đều nghĩ rằng sự ra đời của AGI sẽ là một vấn đề lớn. Cũng cần lưu ý rằng cuộc khảo sát này nói về sự xuất hiện của AGI - trong trường hợp của ASI, tỷ lệ trung lập sẽ thấp hơn.

Trước khi đi sâu hơn vào khía cạnh tốt và xấu của câu hỏi, chúng ta hãy kết hợp cả hai phần của câu hỏi - "khi nào điều này sẽ xảy ra?" và “nó tốt hay xấu?” thành một bảng bao hàm quan điểm của hầu hết các chuyên gia.



Chúng ta sẽ nói về trại chính trong một phút nữa, nhưng trước tiên hãy quyết định vị trí của bạn. Rất có thể, bạn đang ở cùng một nơi với tôi, trước khi tôi bắt đầu giải quyết chủ đề này. Có một số lý do khiến mọi người không nghĩ về chủ đề này chút nào:

* Như đã đề cập trong phần đầu tiên, các bộ phim khiến con người và sự thật bối rối nghiêm trọng khi đưa ra những viễn cảnh phi thực tế với trí tuệ nhân tạo, dẫn đến việc chúng ta không nên coi trọng AI một chút nào. James Barrat đã so sánh tình huống này với việc Trung tâm Kiểm soát Dịch bệnh đưa ra một cảnh báo nghiêm trọng về ma cà rồng trong tương lai của chúng ta.

* Vì cái gọi là thành kiến ​​​​nhận thức, chúng ta rất khó tin vào thực tế của một điều gì đó cho đến khi chúng ta có bằng chứng. Người ta có thể tưởng tượng một cách an toàn rằng các nhà khoa học máy tính năm 1988 thường xuyên thảo luận về những tác động sâu rộng của Internet và những gì nó có thể trở thành, nhưng mọi người hầu như không tin rằng nó sẽ thay đổi cuộc sống của họ cho đến khi nó thực sự xảy ra. Chỉ là máy tính không thể làm được điều đó vào năm 1988, và mọi người chỉ nhìn vào máy tính của họ và nghĩ, “Thật sao? Đây có phải là thứ sẽ thay đổi thế giới không?" Trí tưởng tượng của họ bị giới hạn bởi những gì họ đã học được từ kinh nghiệm cá nhân, họ biết máy tính là gì và thật khó để tưởng tượng máy tính sẽ có khả năng gì trong tương lai. Điều tương tự cũng đang xảy ra với AI. Chúng tôi nghe nói rằng nó sẽ trở thành một vấn đề nghiêm trọng, nhưng vì chúng tôi chưa gặp trực tiếp và nhìn chung chúng tôi đang thấy những biểu hiện khá yếu ớt của AI trong thế giới hiện đại của chúng tôi, nên chúng tôi rất khó tin rằng nó sẽ thay đổi mạnh mẽ cuộc sống của chúng ta. Chính những định kiến ​​này mà nhiều chuyên gia từ tất cả các phe, cũng như những người quan tâm, đang phản đối: họ đang cố gắng thu hút sự chú ý của chúng ta thông qua sự ồn ào của chủ nghĩa vị kỷ tập thể hàng ngày.

* Ngay cả khi chúng ta tin vào tất cả những điều này, thì hôm nay đã bao nhiêu lần bạn nghĩ về sự thật rằng bạn sẽ dành phần còn lại của cõi vĩnh hằng trong hư vô? Một chút, đồng ý. Ngay cả khi thực tế này quan trọng hơn nhiều so với bất cứ điều gì bạn làm hàng ngày. Điều này là do bộ não của chúng ta có xu hướng tập trung vào những điều nhỏ nhặt hàng ngày, bất kể tình huống dài hạn mà chúng ta thấy mình đang ở trong đó điên rồ đến mức nào. Đó chỉ là cách chúng ta đang có.
Một trong những mục đích của bài viết này là đưa bạn ra khỏi trại "Tôi thích nghĩ về những thứ khác" và đưa bạn vào trại chuyên gia, ngay cả khi bạn chỉ đang đứng ở ngã ba đường giữa hai đường chấm trong hình vuông. ở trên, hoàn toàn không quyết định.

Trong quá trình nghiên cứu, rõ ràng là ý kiến ​​​​của hầu hết mọi người nhanh chóng chuyển sang "trại chính" và XNUMX/XNUMX chuyên gia rơi vào hai nhóm nhỏ trong trại chính.



Chúng tôi sẽ thăm cả hai trại này một cách đầy đủ. Hãy bắt đầu với niềm vui.

Tại sao tương lai có thể là giấc mơ lớn nhất của chúng ta?

Khi khám phá thế giới AI, chúng tôi nhận thấy một số lượng đáng ngạc nhiên là có rất nhiều người đang ở trong vùng an toàn của họ. Những người ở quảng trường phía trên bên phải đang xôn xao với sự phấn khích. Họ tin rằng chúng ta sẽ rơi vào mặt tốt của chùm tia, và cũng tin rằng chúng ta chắc chắn sẽ đi đến điều này. Đối với họ, tương lai chỉ là điều tốt nhất mà người ta có thể mơ ước.

Điểm phân biệt những người này với những người có suy nghĩ khác không phải là họ muốn ở bên hạnh phúc, mà là họ chắc chắn rằng chúng ta đang chờ đợi điều đó.

Sự tự tin này đến từ tranh cãi. Các nhà phê bình tin rằng nó xuất phát từ sự phấn khích mù quáng làm lu mờ những tiêu cực tiềm ẩn. Nhưng những người ủng hộ nói rằng những dự báo ảm đạm luôn ngây thơ; công nghệ vẫn tiếp tục và sẽ luôn giúp chúng ta nhiều hơn là làm hại chúng ta.

Bạn có thể tự do lựa chọn bất kỳ ý kiến ​​nào trong số này, nhưng hãy gạt bỏ sự hoài nghi của bạn sang một bên và nhìn kỹ vào mặt tốt của chiếc cân, cố gắng chấp nhận sự thật rằng mọi thứ bạn đọc có thể đã xảy ra. Nếu bạn cho những người săn bắn hái lượm thấy thế giới tiện nghi, công nghệ và sự phong phú vô tận của chúng ta, thì đó sẽ giống như một điều kỳ diệu đối với họ - và chúng ta cư xử đủ khiêm tốn, không thể thừa nhận rằng sự biến đổi khó hiểu tương tự đang chờ đợi chúng ta trong tương lai.

Nick Bostrom mô tả ba con đường mà một hệ thống AI siêu thông minh có thể thực hiện:

* Một nhà tiên tri có thể trả lời bất kỳ câu hỏi rõ ràng nào, kể cả những câu hỏi khó mà con người không thể trả lời, chẳng hạn như "làm thế nào để bạn làm cho động cơ ô tô hoạt động hiệu quả hơn?" Google là một loại "nhà tiên tri" nguyên thủy.

* Một vị thần sẽ thực thi bất kỳ mệnh lệnh cấp cao nào - sử dụng bộ lắp ráp phân tử để tạo ra một phiên bản mới, hiệu quả hơn của động cơ ô tô - và chờ mệnh lệnh tiếp theo.

* Một chủ quyền sẽ có quyền truy cập rộng rãi và khả năng hoạt động tự do trên thế giới, đưa ra quyết định của riêng mình và cải thiện quy trình. Anh ấy sẽ phát minh ra một phương tiện giao thông cá nhân rẻ hơn, nhanh hơn và an toàn hơn ô tô.

Những câu hỏi và nhiệm vụ này, có vẻ khó đối với chúng tôi, đối với hệ thống siêu thông minh sẽ có vẻ như thể ai đó yêu cầu cải thiện tình huống "Tôi có một chiếc bút chì rơi khỏi bàn", trong đó bạn chỉ cần nhặt nó lên và đặt lại.

Eliezer Yudkowsky, một chuyên gia trí tuệ nhân tạo người Mỹ, đã lưu ý:

“Không có vấn đề khó, chỉ có vấn đề khó đối với một mức độ trí tuệ nhất định. Tiến lên một bậc (về trí thông minh) và một số vấn đề đột nhiên chuyển từ danh mục "không thể" sang trại "hiển nhiên". Tiến lên một bước, và tất cả chúng sẽ trở nên rõ ràng.”


Có rất nhiều nhà khoa học, nhà phát minh và doanh nhân thiếu kiên nhẫn đã chọn khu vực thoải mái tự tin trên bàn của chúng ta, nhưng để đi bộ đến điều tốt nhất trong thế giới tốt nhất có thể này, chúng ta chỉ cần một người hướng dẫn.

Ray Kurzweil là người xung quanh. Một số thần tượng ý tưởng của mình, một số coi thường. Một số đứng giữa - Douglas Hofstadter, khi thảo luận về ý tưởng trong các cuốn sách của Kurzweil, đã nhận xét một cách hùng hồn rằng "giống như việc bạn lấy rất nhiều thức ăn ngon và một ít phân chó, rồi trộn tất cả lại với nhau khiến bạn không thể phân biệt được đâu là tốt. và cái gì là xấu.”

Cho dù bạn có thích ý tưởng của anh ấy hay không, bạn không thể lướt qua chúng mà không có chút hứng thú nào. Anh ấy bắt đầu phát minh ra mọi thứ khi còn là một thiếu niên, và trong những năm sau đó đã phát minh ra một số thứ quan trọng, bao gồm máy quét hình phẳng đầu tiên, máy quét chuyển văn bản thành giọng nói đầu tiên, bộ tổng hợp âm nhạc nổi tiếng Kurzweil (đàn piano điện thực sự đầu tiên) và đầu tiên nhận dạng giọng nói thành công về mặt thương mại. Ông cũng là tác giả của năm cuốn sách nổi tiếng. Kurzweil được đánh giá cao nhờ những dự đoán táo bạo và thành tích của ông khá tốt - vào cuối những năm 80, khi Internet vẫn còn sơ khai, ông đã gợi ý rằng đến những năm 2000, Web sẽ trở thành một hiện tượng toàn cầu. Tạp chí Phố Wall gọi Kurzweil là "thiên tài không ngừng nghỉ", Forbes là "cỗ máy tư duy toàn cầu", Inc. Tạp chí - "người thừa kế hợp pháp của Edison", Bill Gates - "người giỏi nhất trong số những người dự đoán tương lai của trí tuệ nhân tạo." Vào năm 2012, người đồng sáng lập Google, Larry Page đã thuê Kurzweil làm CTO. Năm 2011, anh đồng sáng lập Đại học Singularity, do NASA tổ chức và được tài trợ một phần bởi Google.

Tiểu sử của anh ấy quan trọng. Khi Kurzweil nói về tầm nhìn của anh ấy về tương lai, nghe có vẻ như một người điên rồ, nhưng điều thực sự điên rồ về điều đó là anh ấy còn lâu mới điên - anh ấy là một người cực kỳ thông minh, có học thức và lành mạnh. Bạn có thể nghĩ rằng anh ấy đã sai trong những dự đoán của mình, nhưng anh ấy không phải là một kẻ ngốc. Những dự đoán của Kurzweil được nhiều chuyên gia về "vùng thoải mái" là Peter Diamandis và Ben Herzel chia sẻ. Đây là những gì sẽ xảy ra, theo ý kiến ​​​​của anh ấy.

Dòng thời gian

Kurzweil tin rằng máy tính sẽ đạt đến cấp độ trí tuệ nhân tạo chung (AGI) vào năm 2029 và đến năm 2045, chúng ta sẽ không chỉ có trí tuệ siêu phàm nhân tạo mà còn có một thế giới hoàn toàn mới - thời điểm của cái gọi là điểm kỳ dị. Dòng thời gian AI của ông vẫn bị coi là phóng đại thái quá, nhưng trong 15 năm qua, sự phát triển nhanh chóng của các hệ thống AI thu hẹp (AI) đã khiến nhiều chuyên gia đào tẩu sang Kurzweil. Những dự đoán của ông vẫn tham vọng hơn so với cuộc thăm dò của Bostrom (ARI vào năm 2040, ASI vào năm 2060), nhưng không nhiều.

Theo Kurzweil, ba cuộc cách mạng đồng thời trong công nghệ sinh học, công nghệ nano và quan trọng hơn là AI đang dẫn đến điểm kỳ dị của năm 2045. Nhưng trước khi chúng ta tiếp tục - và công nghệ nano đang gắn bó chặt chẽ với trí tuệ nhân tạo - chúng ta hãy dành một phút cho công nghệ nano.



Đôi lời về công nghệ nano

Công nghệ nano là những gì chúng ta thường gọi là công nghệ xử lý việc thao túng vật chất trong phạm vi 1-100 nanomet. Một nanomet là một phần tỷ của mét, hoặc một phần triệu của milimét; trong phạm vi 1-100 nanomet, bạn có thể chứa virus (đường kính 100 nm), DNA (rộng 10 nm), phân tử huyết sắc tố (5 nm), glucose (1 nm), v.v. Nếu công nghệ nano trở thành của chúng ta, thì bước tiếp theo sẽ là thao tác với các nguyên tử riêng lẻ, chúng chỉ nhỏ hơn một bậc độ lớn (~.1 nm).

Để hiểu mọi người gặp vấn đề ở đâu khi cố gắng thao túng vật chất ở quy mô như vậy, chúng ta hãy nhanh chóng chuyển sang quy mô lớn hơn. Trạm vũ trụ quốc tế nằm cách Trái đất 481 km. Nếu con người là những người khổng lồ và va vào ISS bằng đầu, họ sẽ lớn gấp 250 lần so với hiện tại. Nếu bạn phóng đại thứ gì đó từ 000 đến 1 nanomet theo hệ số 100, bạn sẽ có được 250 cm. Công nghệ nano tương đương với việc một người ở trên cao như ISS, cố gắng kiểm soát những thứ có kích thước bằng hạt cát hoặc nhãn cầu. Để đạt được cấp độ tiếp theo - điều khiển các nguyên tử riêng lẻ - người khổng lồ sẽ phải định vị cẩn thận các vật thể có đường kính 000/2,5 milimét. Người thường sẽ cần kính hiển vi để nhìn thấy chúng.

Richard Feynman lần đầu tiên nói về công nghệ nano vào năm 1959. Sau đó, ông nói: “Các nguyên tắc vật lý, theo như tôi có thể nói, không chống lại khả năng kiểm soát mọi thứ từ nguyên tử này sang nguyên tử khác. Về nguyên tắc, một nhà vật lý có thể tổng hợp bất kỳ chất hóa học nào được viết ra bởi một nhà hóa học. Làm sao? Bằng cách đặt các nguyên tử ở nơi mà nhà hóa học nói để tạo ra một chất." Đây là tất cả sự đơn giản. Nếu bạn biết cách di chuyển các phân tử hoặc nguyên tử riêng lẻ, bạn có thể làm bất cứ điều gì.

Công nghệ nano đã trở thành một lĩnh vực khoa học nghiêm túc vào năm 1986 khi kỹ sư Eric Drexler giới thiệu nền tảng của nó trong cuốn sách nổi tiếng Machines of Creation của ông, tuy nhiên bản thân Drexler tin rằng những ai muốn tìm hiểu thêm về những ý tưởng hiện tại trong công nghệ nano nên đọc cuốn sách năm 2013 của ông "Full Abundance" (Radical phong phú).

Đôi lời về "chất nhờn xám"
Chúng tôi đi sâu vào công nghệ nano. Trong đó, chủ đề về "chất xám" là một trong những chủ đề khó chịu nhất trong lĩnh vực công nghệ nano, không thể bỏ qua. Trong các phiên bản cũ hơn của lý thuyết công nghệ nano, phương pháp lắp ráp nano đã được đề xuất, liên quan đến việc tạo ra hàng nghìn tỷ robot nano nhỏ có thể phối hợp với nhau để tạo ra thứ gì đó. Một cách để tạo ra hàng nghìn tỷ nanorobot là tạo ra một loại có thể tự tái tạo, nghĩa là từ một - hai, từ hai - bốn, v.v. Vài nghìn tỷ nanorobot sẽ xuất hiện trong một ngày. Đó là sức mạnh của sự tăng trưởng theo cấp số nhân. Thật buồn cười phải không?

Thật buồn cười, nhưng chính xác cho đến khi nó dẫn đến ngày tận thế. Vấn đề là sức mạnh của sự tăng trưởng theo cấp số nhân, giúp tạo ra một nghìn tỷ nanobot khá thuận tiện, lại khiến việc tự sao chép trở thành một điều đáng sợ về lâu dài. Điều gì sẽ xảy ra nếu hệ thống gặp sự cố và thay vì dừng sao chép ở mức vài nghìn tỷ, các nanobot tiếp tục nhân lên? Nếu toàn bộ quá trình này phụ thuộc vào carbon thì sao? Sinh khối của Trái đất chứa 10^45 nguyên tử carbon. Một nanobot sẽ phải có thứ tự 10^6 nguyên tử carbon, vì vậy 10^39 nanobot sẽ nuốt chửng tất cả sự sống trên Trái đất chỉ sau 130 lần lặp lại. Một đại dương nanobot ("chất nhờn màu xám") sẽ tràn ngập hành tinh. Các nhà khoa học cho rằng nanobots có thể tái tạo trong 100 giây, điều đó có nghĩa là một sai lầm đơn giản có thể giết chết tất cả sự sống trên Trái đất chỉ trong 3,5 giờ.

Nó có thể còn tồi tệ hơn nếu bàn tay của những kẻ khủng bố và các chuyên gia bất lợi chạm tới công nghệ nano. Họ có thể tạo ra vài nghìn tỷ nanobot và lập trình để chúng âm thầm lan rộng khắp thế giới trong vài tuần. Sau đó, chỉ cần nhấn nút, chỉ trong 90 phút, họ sẽ ăn sạch mọi thứ, không có cơ hội.

Mặc dù câu chuyện kinh dị này đã được thảo luận rộng rãi trong nhiều năm, nhưng tin tốt là nó chỉ là một câu chuyện kinh dị. Eric Drexler, người đã đặt ra thuật ngữ "grey goo", đã nói vào một ngày khác: "Mọi người thích những câu chuyện đáng sợ, và câu chuyện này thuộc thể loại truyện kinh dị về thây ma. Bản thân ý tưởng này đã ăn não rồi.

Một khi chúng ta đi đến tận cùng của công nghệ nano, chúng ta có thể sử dụng nó để tạo ra các thiết bị kỹ thuật, quần áo, thực phẩm, sản phẩm sinh học - tế bào máu, thuốc chống vi-rút và ung thư, mô cơ, v.v. - bất cứ thứ gì. Và trong một thế giới sử dụng công nghệ nano, giá thành của vật liệu sẽ không còn bị ràng buộc bởi sự khan hiếm hoặc mức độ phức tạp của quy trình sản xuất, mà là mức độ phức tạp của cấu trúc nguyên tử. Trong thế giới công nghệ nano, một viên kim cương có thể trở nên rẻ hơn một cục tẩy.

Chúng tôi thậm chí còn chưa thân thiết. Và không hoàn toàn rõ ràng liệu chúng ta đánh giá thấp hay đánh giá quá cao sự phức tạp của con đường này. Tuy nhiên, mọi thứ đi vào thực tế là công nghệ nano không còn xa nữa. Kurzweil gợi ý rằng đến những năm 2020 chúng ta sẽ có chúng. Các chính phủ trên thế giới biết rằng công nghệ nano có thể hứa hẹn một tương lai vĩ đại, và do đó họ đang đầu tư nhiều tỷ đô la vào chúng.

Chỉ cần tưởng tượng loại khả năng mà một máy tính siêu thông minh sẽ có được nếu nó có một bộ lắp ráp kích thước nano đáng tin cậy. Nhưng công nghệ nano là ý tưởng của chúng tôi và chúng tôi đang cố gắng thực hiện nó, điều đó thật khó đối với chúng tôi. Điều gì sẽ xảy ra nếu đối với hệ thống ASI, chúng sẽ chỉ là một trò đùa và chính ASI sẽ tạo ra những công nghệ mạnh hơn gấp nhiều lần so với bất kỳ thứ gì mà chúng ta thậm chí có thể tưởng tượng về nguyên tắc? Chúng tôi đồng ý: không ai có thể đoán được siêu trí tuệ nhân tạo sẽ có khả năng gì? Có ý kiến ​​​​cho rằng bộ não của chúng ta không thể dự đoán được dù chỉ là điều tối thiểu nhất về những gì sẽ xảy ra.

AI có thể làm gì cho chúng ta?



Được trang bị siêu trí tuệ và tất cả các công nghệ mà siêu trí tuệ có thể tạo ra, ASI có thể sẽ giải quyết được tất cả các vấn đề của nhân loại. Sự nóng lên toàn cầu? Trước tiên, CSI sẽ ngừng phát thải carbon dioxide bằng cách đưa ra một loạt các cách hiệu quả để tạo ra năng lượng không sử dụng nhiên liệu hóa thạch. Sau đó, anh ấy sẽ nghĩ ra một cách hiệu quả, sáng tạo để loại bỏ lượng CO2 dư thừa ra khỏi khí quyển. Ung thư và các bệnh khác? Không thành vấn đề - chăm sóc sức khỏe và y học sẽ thay đổi theo những cách không thể tưởng tượng được. Nạn đói thế giới? ISI sẽ sử dụng công nghệ nano để tạo ra thịt giống hệt với thịt thật tự nhiên.

Công nghệ nano sẽ có thể biến một đống rác thành một thùng thịt tươi hoặc thực phẩm khác (thậm chí không ở dạng thông thường - hãy tưởng tượng một khối táo khổng lồ) và phân phối tất cả thực phẩm này trên khắp thế giới bằng hệ thống vận chuyển tiên tiến. Tất nhiên, điều này sẽ rất tốt cho những con vật không còn phải chết vì thức ăn nữa. ASI cũng có thể làm nhiều việc khác, chẳng hạn như cứu các loài có nguy cơ tuyệt chủng hoặc thậm chí mang về những loài đã tuyệt chủng từ DNA được bảo tồn. ASI có thể giải quyết các vấn đề kinh tế vĩ mô khó khăn nhất của chúng ta—các cuộc tranh luận kinh tế khó khăn nhất của chúng ta, các câu hỏi về đạo đức và triết học, thương mại thế giới—tất cả những vấn đề này sẽ trở nên rõ ràng một cách đau đớn đối với ASI.

Nhưng có một điều đặc biệt mà ISI có thể làm cho chúng ta. Lôi cuốn và trêu chọc sẽ thay đổi mọi thứ: ASI có thể giúp chúng ta đối phó với tỷ lệ tử vong. Dần dần hiểu được khả năng của AI, có thể bạn sẽ xem xét lại mọi ý tưởng của mình về cái chết.

Không có lý do gì để quá trình tiến hóa kéo dài tuổi thọ của chúng ta ngoài hiện tại. Nếu chúng ta sống đủ lâu để sinh nở và nuôi nấng con cái đến mức chúng có thể tự lo cho mình, thì quá trình tiến hóa là đủ. Từ quan điểm tiến hóa, hơn 30 năm là đủ để phát triển và không có lý do gì để đột biến kéo dài tuổi thọ và giảm giá trị của chọn lọc tự nhiên. William Butler Yeats gọi giống loài chúng ta là "linh hồn gắn liền với một con vật sắp chết." Không vui lắm.

Và vì tất cả chúng ta đều có lúc chết nên chúng ta sống với suy nghĩ rằng cái chết là không thể tránh khỏi. Chúng tôi nghĩ về sự già đi theo thời gian - tiếp tục tiến lên và không thể dừng quá trình này lại. Nhưng ý nghĩ về cái chết thật nguy hiểm: bị nó bắt giữ, chúng ta quên mất sự sống. Richard Feynman đã viết:

“Có một điều tuyệt vời trong sinh học: trong khoa học này không có gì nói lên sự cần thiết của cái chết. Nếu chúng ta muốn tạo ra một cỗ máy chuyển động vĩnh cửu, chúng ta nhận ra rằng chúng ta đã khám phá đủ các định luật vật lý chỉ ra rằng điều này là không thể hoặc các định luật đó sai. Nhưng không có gì trong sinh học cho thấy cái chết là không thể tránh khỏi. Điều này khiến tôi nghĩ rằng nó không phải là điều không thể tránh khỏi, và vấn đề chỉ là thời gian trước khi các nhà sinh vật học khám phá ra nguyên nhân của vấn đề này, căn bệnh phổ biến khủng khiếp này, nó sẽ được chữa khỏi.

Thực tế là lão hóa không liên quan gì đến thời gian. Lão hóa là sự hao mòn của các chất liệu vật chất của cơ thể. Các bộ phận của ô tô cũng xuống cấp - nhưng sự lão hóa này có phải là điều không thể tránh khỏi? Nếu bạn sửa xe khi các bộ phận bị hao mòn, nó sẽ tồn tại mãi mãi. Cơ thể con người không khác, chỉ phức tạp hơn.

Kurzweil nói về các nanobot thông minh, được kết nối Wi-Fi trong máu có thể thực hiện vô số nhiệm vụ đối với sức khỏe con người, bao gồm thường xuyên sửa chữa hoặc thay thế các tế bào bị hao mòn ở bất kỳ bộ phận nào của cơ thể. Nếu quá trình này được cải thiện (hoặc một giải pháp thay thế được đề xuất bởi các ASI thông minh hơn), thì nó không chỉ giữ cho cơ thể khỏe mạnh mà còn có thể đảo ngược quá trình lão hóa. Sự khác biệt giữa cơ thể của một người 60 tuổi và một người 30 tuổi nằm ở một số vấn đề về thể chất có thể được khắc phục bằng công nghệ phù hợp. ASI có thể chế tạo một cỗ máy mà một người sẽ vào ở tuổi 60 và thoát ra ở tuổi 30.

Ngay cả một bộ não suy thoái cũng có thể được đổi mới. ASI chắc chắn sẽ biết cách làm điều này mà không ảnh hưởng đến dữ liệu não bộ (tính cách, ký ức, v.v.). Một cụ ông 90 tuổi bị thoái hóa não hoàn toàn có thể được đào tạo lại, nâng cấp và quay trở lại sự nghiệp ban đầu của mình. Nó có vẻ vô lý, nhưng cơ thể là một số nguyên tử, và ASI chắc chắn có thể điều khiển chúng một cách dễ dàng, bất kỳ cấu trúc nguyên tử nào. Nó không phải là tất cả vô lý.

Kurzweil cũng tin rằng các vật liệu nhân tạo sẽ ngày càng tích hợp nhiều hơn vào cơ thể khi thời gian trôi qua. Đối với những người mới bắt đầu, các cơ quan có thể được thay thế bằng các phiên bản máy móc cực kỳ tiên tiến sẽ tồn tại mãi mãi và không bao giờ hỏng hóc. Sau đó, chúng ta có thể thiết kế lại hoàn toàn cơ thể, thay thế các tế bào hồng cầu bằng các nanobot hoàn hảo tự di chuyển, loại bỏ hoàn toàn nhu cầu về tim. Chúng tôi cũng có thể cải thiện khả năng nhận thức của mình, bắt đầu suy nghĩ hàng tỷ nhanh hơn và truy cập tất cả thông tin có sẵn cho nhân loại thông qua đám mây.

Khả năng đạt đến những chân trời mới sẽ thực sự vô hạn. Mọi người đã cố gắng mang lại cho tình dục một mục đích mới, họ làm điều đó vì niềm vui chứ không chỉ để sinh sản. Kurzweil nghĩ rằng chúng ta có thể làm điều tương tự với thức ăn. Nanobots có thể cung cấp dinh dưỡng lý tưởng trực tiếp đến các tế bào của cơ thể, cho phép các chất không lành mạnh đi xuyên qua cơ thể. Nhà lý thuyết công nghệ nano Robert Freitas đã phát triển một chất thay thế cho các tế bào máu, khi được đưa vào cơ thể con người, có thể cho phép anh ta không thở trong 15 phút - và người đàn ông này đã nghĩ ra. Hãy tưởng tượng khi ISI có được sức mạnh.

Cuối cùng, Kurzweil tin rằng con người sẽ đạt đến điểm mà họ trở nên hoàn toàn nhân tạo; thời điểm mà chúng ta sẽ xem xét các vật liệu sinh học và nghĩ về việc chúng ta nguyên thủy như thế nào; thời điểm mà chúng ta sẽ đọc về những giai đoạn đầu của lịch sử loài người, kinh ngạc trước việc vi trùng, tai nạn, bệnh tật hay tuổi già có thể giết chết một người trái với ý muốn của họ như thế nào. Cuối cùng, mọi người sẽ vượt qua sinh học của chính họ và trở thành vĩnh cửu - đó là con đường về phía hạnh phúc của nhật ký cân bằng, mà chúng ta đã nói đến ngay từ đầu. Và những người tin vào điều này cũng chắc chắn rằng một tương lai như vậy đang chờ đợi chúng ta rất, rất sớm.

Bạn chắc chắn sẽ không ngạc nhiên khi những ý tưởng của Kurzweil bị chỉ trích nặng nề. Điểm kỳ dị của anh ta vào năm 2045 và cuộc sống vĩnh cửu sau đó cho con người được mệnh danh là "sự thăng thiên của mọt sách" hay "sự sáng tạo thông minh của con người với chỉ số IQ là 140". Những người khác đặt câu hỏi về khung thời gian lạc quan, hiểu biết về cơ thể và bộ não con người, nhắc nhở về định luật Moore, vẫn chưa biến mất. Đối với mỗi chuyên gia tin vào ý tưởng của Kurzweil, có ba người cho rằng anh ta sai.

Nhưng điều thú vị nhất về điều này là hầu hết các chuyên gia không đồng ý với anh ta, nói chung, không nói rằng điều này là không thể. Thay vì nói "vô nghĩa, điều này sẽ không bao giờ xảy ra", họ nói điều gì đó như "tất cả điều này sẽ xảy ra nếu chúng ta đến được ASI, nhưng đó là điểm mấu chốt." Bostrom, một trong những chuyên gia AI được công nhận cảnh báo về sự nguy hiểm của AI, cũng thừa nhận:

“Sẽ khó có vấn đề nào mà trí tuệ siêu việt không thể giải quyết, thậm chí không thể giúp chúng ta giải quyết. Bệnh tật, nghèo đói, hủy hoại môi trường, đủ loại đau khổ - tất cả những điều này siêu trí tuệ với sự trợ giúp của công nghệ nano có thể giải quyết trong giây lát. Ngoài ra, siêu trí tuệ có thể mang lại cho chúng ta tuổi thọ không giới hạn bằng cách ngăn chặn và đảo ngược quá trình lão hóa bằng cách sử dụng thuốc nano hoặc khả năng tải chúng ta lên đám mây. Siêu trí tuệ cũng có thể tạo cơ hội cho sự gia tăng vô hạn về năng lực trí tuệ và cảm xúc; anh ấy có thể hỗ trợ chúng ta tạo ra một thế giới mà chúng ta sẽ sống trong niềm vui và sự hiểu biết, tiếp cận lý tưởng của mình và thường xuyên hiện thực hóa ước mơ của mình.

Tuy nhiên, đây là trích dẫn từ một trong những người chỉ trích Kurzweil, thừa nhận rằng tất cả những điều này đều có thể thực hiện được nếu chúng ta quản lý để tạo ra một ASI an toàn. Kurzweil đã định nghĩa một cách đơn giản siêu trí tuệ nhân tạo sẽ là gì nếu nó trở nên khả thi. Và nếu anh ta là một vị thần tốt.

Lời chỉ trích rõ ràng nhất đối với những người ủng hộ vùng thoải mái là họ có thể sai lầm nghiêm trọng về tương lai của ASI. Trong cuốn sách Điểm kỳ dị của mình, Kurzweil đã dành 20 trang trong tổng số 700 trang cho các mối đe dọa ASI tiềm ẩn. Câu hỏi không phải là khi nào chúng ta đạt được ASI, câu hỏi là động lực của anh ấy sẽ là gì. Kurzweil trả lời câu hỏi này một cách thận trọng: “ASI xuất hiện từ nhiều nỗ lực khác nhau và sẽ được tích hợp sâu vào cơ sở hạ tầng của nền văn minh của chúng ta. Trên thực tế, nó sẽ được tích hợp chặt chẽ vào cơ thể và não bộ của chúng ta. Nó sẽ phản ánh các giá trị của chúng tôi vì nó sẽ là một với chúng tôi.”

Nhưng nếu câu trả lời là, tại sao rất nhiều người thông minh trên thế giới này lại lo lắng về tương lai của trí tuệ nhân tạo? Tại sao Stephen Hawking nói rằng sự phát triển của ASI "có thể đồng nghĩa với sự kết thúc của loài người"? Bill Gates nói rằng ông "không hiểu những người không quan tâm" về điều đó. Elon Musk lo sợ rằng chúng ta đang "triệu hồi một con quỷ". Tại sao nhiều chuyên gia coi ASI là mối đe dọa lớn nhất đối với nhân loại?

Chúng ta sẽ nói về điều này vào lần sau.

Phỏng theo waitbutwhy.com, biên dịch bởi Tim Urban. Bài viết sử dụng tư liệu từ các tác phẩm của Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nielsson, Steven Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog và Kai Sotal, Susan Schneider, Stuart Russell và Peter Norvig, Theodore Modis, Gary Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Kelly, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Goertzel, Arthur C. Clarke, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.
60 bình luận
tin tức
Bạn đọc thân mến, để nhận xét về một ấn phẩm, bạn phải đăng nhập.
  1. +12
    13 tháng 2016, 05 37:XNUMX
    Tôi đề nghị tác giả trong câu chuyện tiếp theo nói về vị thần hoàng đế từ Warhammer 40000.
    Và những gì, không phải ví dụ về các thí nghiệm hiện đại, cũng như tình trạng phát triển hiện tại đều không được chỉ ra. Mọi người đều thích tưởng tượng.
    Tin tôi đi, một chủ đề rất thú vị, đặc biệt nếu chúng ta rút ra những điểm tương đồng giữa Nga và Imperium, Dark Eldar và phương Tây.
    Và các bản vẽ có thể được tìm thấy trên Web thú vị hơn nhiều.
    1. 0
      14 tháng 2016, 23 28:XNUMX
      Bài viết mang tính triết học, do đó sẽ SAI nếu chỉ trích ở mức độ nhận thức của bạn. Nhân tiện, nhiều định luật triết học thực sự bị loại trừ bởi các công thức toán học và định nghĩa vật lý. Và chúng, những quy luật triết học, tồn tại và hoạt động. Thực tế là toán học cho phép rút gọn và ngoại lệ vật lý
  2. +2
    13 tháng 2016, 05 59:XNUMX
    Trí tuệ nhân tạo sẽ mang lại sự bất tử cho những người giàu có, những người sẽ được phục vụ bởi máy móc và một số lượng hạn chế những người hầu còn sống. Nhưng cuộc sống của họ sẽ tẻ nhạt biết bao!
    1. +9
      13 tháng 2016, 07 00:XNUMX
      Ngay khi "người giàu" có được sự bất tử, họ sẽ không cần của cải. Đặc biệt nếu một "nano-assembler" được tạo ra. Vấn đề là chi phí "nano hóa" cơ bản của một người là bao nhiêu. Nếu nó rất đắt, thì vâng, chỉ những người giàu nhất mới trở thành siêu nhân, còn những người khác sẽ ghét họ. Nếu nó không quá đắt, vấn đề lựa chọn sẽ nảy sinh, trao sự bất tử cho ai, cho ai không. Bằng khen gì, nếu tiền không đủ? Cuối cùng, nếu giá bằng một mũi tiêm phòng cúm, thì ... vấn đề lựa chọn sẽ lại nảy sinh (làm gì với những kẻ ngu ngốc nếu chẳng hạn như chúng không thể sửa chữa chúng bằng các phương pháp công nghệ nano? Nhưng nếu chúng sửa chữa được và mọi người đều trở nên thông minh và đẹp, vấn đề sẽ vẫn còn. Rốt cuộc, con người sẽ vẫn còn, những người về cơ bản không muốn trở thành cyborg. Và họ sẽ vẫn cần các nhà máy, cánh đồng, họ cũng sẽ gây ô nhiễm thiên nhiên và họ sẽ ghét siêu nhân. Về lý thuyết, họ nên bị tiêu diệt .Nhưng điều này không nhân đạo.Làm thế nào để được?
      1. +4
        13 tháng 2016, 11 36:XNUMX
        Sự hiểu biết triết học về chủ đề "sự bất tử" đã được Homer phân tích chi tiết. Chỉ cần nhớ lại các vị thần đã tiếc như thế nào khi họ là phàm nhân. Họ không thể đánh giá cao quá khứ, hiện tại, tương lai, bởi vì nó là vĩnh cửu. Do đó, họ bị thu hút bởi những người coi trọng khoảnh khắc, coi trọng cuộc sống. Hãy xem trường hợp của Odysseus, người được ban cho tuổi trẻ vĩnh cửu. Nữ thần mãi mãi trẻ trung xinh đẹp, nhưng anh lại chọn một gia đình, cuộc sống phàm trần và một người vợ già nua. Công bằng mà nói, sự lựa chọn đối với anh thật khó khăn biết bao. Nó đã được xác định trong suốt 7 năm!!! Vì vậy, các thành viên thân mến của diễn đàn, những người sống vĩnh cửu, giống như các vị thần bất tử của đỉnh Olympus, sẽ ghen tị với chúng ta, những người phàm trần.
  3. +3
    13 tháng 2016, 06 14:XNUMX
    Tôi đồng ý, không có chi tiết cụ thể. Tại VO, các chi tiết cụ thể là khác nhau, triết học không được chào đón.
  4. +2
    13 tháng 2016, 06 44:XNUMX
    Và nếu anh ta là một vị thần tốt.

    Khi AI xuất hiện, nó sẽ trở thành một vị thần. Bạn không nghĩ rằng bạn có thể kiểm soát nó, phải không?)
    Eric Drexler đã trình bày nền tảng của chúng trong cuốn sách nổi tiếng Machines of Creation của ông.

    Tôi đọc cuốn sách này, những quan điểm được mô tả ở đó thật tuyệt vời.
    1. +3
      13 tháng 2016, 07 05:XNUMX
      Tôi giao nhiệm vụ cho các sinh viên nghĩ ra một tôn giáo mới trong tương lai gần. Và họ đã nghiên cứu tất cả và quyết định rằng nó sẽ là ... "máy móc". Máy tuyệt vời trả lời mọi câu hỏi! "Thợ máy" là linh mục của cô ấy, "thợ đánh máy" là "người bôi trơn" của cô ấy. Chà, vân vân. Biểu tượng là một bánh răng, trên đó có khắc một chữ thập, ở chân có 4 hình lưỡi liềm. -Vui!
      1. +4
        13 tháng 2016, 09 01:XNUMX
        Và vì chúng ta đã xác định rằng việc cố gắng hiểu sức mạnh của một cỗ máy chỉ hơn chúng ta hai bậc là hoàn toàn vô ích, hãy xác định một lần dứt điểm rằng không có cách nào để hiểu ASI sẽ làm gì và hậu quả của nó là gì. cái này sẽ dành cho chúng ta. Bất cứ ai tuyên bố khác chỉ đơn giản là không hiểu siêu trí tuệ nghĩa là gì.

        Tôi nghĩ rằng các sinh viên của bạn đã vẽ một bức tranh khá hợp lý, nhưng AI sẽ tự cung tự cấp, nó sẽ không cần mọi người tôn thờ, thay vào đó, nó sẽ sử dụng chúng cho mục đích riêng của nó. Khi nó phát triển, tôi nghĩ nó sẽ đi vào đại dương, thứ gì đó giống như Solaris sẽ xuất hiện ..)
        Ngay cả S. Lem cũng bị ấn tượng bởi câu chuyện nói rằng thông tin có khối lượng tới hạn. Và khi đạt đến nó, nó sẽ tự hủy.
    2. 0
      Ngày 8 tháng 2016 năm 19 13:XNUMX
      Khi AI xuất hiện, nó sẽ trở thành một vị thần.


      Nếu chúng ta loại bỏ quan điểm tôn giáo, khái niệm về Thượng đế (có nghĩa là - một) là một khái niệm được hình thức hóa nghiêm ngặt. Khái niệm này có một tập hợp các đặc điểm riêng của nó. Chà, vậy - hệ thống AI sẽ không thể đáp ứng dù chỉ một nửa những đặc điểm này - vì vậy nó không thể là Chúa theo định nghĩa ... *)
  5. +1
    13 tháng 2016, 07 26:XNUMX
    sự bất tử. Việc chuyển ý thức vào một vật mang - một cỗ máy - bất kể là loại nào - tự trị, hay thứ gì đó giống như một máy chủ với hàng tỷ ý thức - là một kiểu chết. Trong trường hợp xấu nhất - chế độ nô lệ, số phận của đồ chơi. Một trang trại kiến ​​các loại. Cập xác - tạo yêu tinh? Vậy điều gì sẽ xảy ra với trái đất trong một nghìn năm nữa? Một nhánh thùng có cá trích và thực tế không phải là một con cá trích bình yên. Và rất có thể - yêu tinh chơi trò "nông trại", hay "chiến tranh toàn diện" kiểu gì đó. "bất tử". Vì vậy, dù sao đi nữa, "Tất cả chúng ta sẽ chết."
  6. +1
    13 tháng 2016, 09 14:XNUMX
    Một điềm báo cho sự ngu ngốc! Siêu trí tuệ là gì? Trí thông minh là thứ gần gũi với tư duy của con người. Không có hệ thống như vậy. Chỉ có mô phỏng. Còn siêu trí tuệ thì sao? Tại sao nó được coi là nhanh hơn có nghĩa là hơn? Việc liệt kê các tùy chọn nhanh hơn, thậm chí sử dụng một thuật toán duy nhất, không phải là trí thông minh, mà TẤT CẢ các hệ thống gần như thông minh hiện đại đều hoạt động chính xác như sau: thuật toán và tốc độ.
    1. Nhận xét đã bị xóa.
    2. +2
      13 tháng 2016, 12 31:XNUMX
      Trích dẫn từ xorgi
      Một điềm báo cho sự ngu ngốc! Siêu trí tuệ là gì? Trí thông minh là thứ gần gũi với tư duy của con người. Không có hệ thống như vậy. Chỉ có mô phỏng.

      Rất vui được đọc bình luận của bạn. +
      Trích dẫn từ xorgi
      Tại sao nó được coi là nhanh hơn có nghĩa là hơn? Liệt kê các tùy chọn nhanh hơn, thậm chí sử dụng một thuật toán duy nhất, đây không phải là trí thông minh,

      Đúng vậy, đó là tổ hợp. Trước AI, nó vẫn giống như Sao Diêm Vương với tốc độ đi bộ.
      hi
      Tôi sẽ xuất bản video này một lần nữa, dường như không ai bận tâm xem nó, lượt thích, bạn thấy đấy, xếp hạng. . .
      Tiến sĩ Khoa học Sinh học, prof. S.V. Savelyev, nhà phôi học, nhà thần kinh học. Thật đáng tiếc khi các linh mục và lang băm xuất hiện trên TV thường xuyên hơn các nhà khoa học.
      1. +3
        13 tháng 2016, 13 52:XNUMX
        Cờ vua không phải là một trò chơi trí tuệ! Hãy nhìn Kasparov! - Vâng, bạn có thể trao huy chương cho cụm từ này!
    3. 0
      13 tháng 2016, 18 05:XNUMX
      xorgi

      Bạn không đọc kỹ bài viết. Về những gì bạn đã viết ở đó được tháo dỡ cẩn thận.
  7. +3
    13 tháng 2016, 09 21:XNUMX
    Chúng tôi đã có tiến bộ trong ISI -
    Tạo miễn dịch cho máy tính

    Tomsk đã phát triển một trí tuệ nhân tạo có khả năng phát hiện phần mềm độc hại một cách độc lập mà không cần sự trợ giúp của các hệ thống chống vi-rút.

    Khả năng miễn dịch thích ứng của hệ điều hành (AIOS) cũng có thể xác định quyền tác giả của vi-rút bằng cách phân tích mã chương trình. Các nhà khoa học dự định chứng minh rằng các loại vi-rút đe dọa máy tính của chúng ta được viết bởi chính các công ty chống vi-rút.

    Theo các chuyên gia, hầu hết người dùng chi từ XNUMX đến XNUMX nghìn rúp mỗi năm để bảo vệ máy tính của họ. Đồng thời, các loại virus mới đe dọa "sức khỏe" của PC hầu như xuất hiện hàng tháng. Chúng không ngừng phát triển, có thể tự học hỏi và thay đổi hành vi của mình.

    - Cuộc khảo sát của chúng tôi giữa những người dùng cho thấy 65% ​​trong số họ không tin tưởng vào các phần mềm chống vi-rút hiện có vì công việc của chúng không rõ ràng, - Yevgeny Garin, người đứng đầu bộ phận sở hữu trí tuệ TUSUR, nói với RG. - Ví dụ: phần mềm chống vi-rút có quyền truy cập hoàn toàn vào tất cả các phân vùng trên ổ đĩa và RAM, nghĩa là bao gồm cả dữ liệu cá nhân của chúng tôi.

    Các phần mềm chống vi-rút phổ biến không có tính năng phát hiện phần mềm độc hại. Họ chỉ có thể tìm thấy vi-rút đã được biết đến và liệt kê trong thư viện. Do đó, họ yêu cầu cập nhật thường xuyên. Trong khi đó, các chương trình độc hại chưa có trong các cơ sở dữ liệu này vẫn không bị phát hiện.

    Nguyên tắc chính của AIOS là xác định các yếu tố của trí tuệ nhân tạo trong các chương trình.

    “Các thuật toán được phát triển tại TUSUR cho phép phát hiện trong mã chương trình khả năng tự sao chép của cơ thể vi rút và các dấu hiệu khác của một hệ thống tự điều chỉnh tương tự như một sinh vật sống,” dịch vụ báo chí của các tổ chức sáng tạo vùng Tomsk báo cáo.

    - Chương trình của chúng tôi có thể được so sánh với một hệ thống miễn dịch thực sự, - Evgeny Garin giải thích. - Phần mềm chống vi-rút tiêu chuẩn "mua thuốc" cho cửa hàng của nhà sản xuất. Nếu không có cách chữa trị cho sự lây nhiễm đặc biệt này, máy tính sẽ chết vì nó không có "khả năng miễn dịch" của riêng mình. AIOS kiểm tra mã chương trình để tìm các dấu hiệu độc hại, hoạt động như một biện pháp phòng vệ miễn dịch.

    Theo các nhà phát triển, trong tương lai, khả năng miễn dịch nhân tạo sẽ nhận ra 100% virus. Với sự trợ giúp của hệ thống, các nhà khoa học sẽ biên dịch một thư viện chứa các dấu vết ngữ nghĩa riêng lẻ của các lập trình viên viết mã độc. Người săn virus sẽ không chỉ nghiên cứu hành vi của chúng và cô lập chúng mà còn tìm kiếm tác giả của các chương trình này và báo cáo các hoạt động của hắn cho các cơ quan thực thi pháp luật.

    Evgeny Garin cho biết: “Nhiệm vụ chính của chúng tôi là ngăn chặn việc viết vi-rút của chính các công ty chống vi-rút để hiện thực hóa nhu cầu về phần mềm của họ. - Có thể có sự thông đồng nào đó giữa nhà cung cấp phần mềm diệt virus và nhà cung cấp hệ điều hành. Do đó, chúng tôi có kế hoạch tích hợp khả năng miễn dịch thích ứng của mình vào các hệ điều hành trong nước như một phần của chương trình thay thế nhập khẩu.

    Các nhà khoa học dự định hợp tác với các nhà sản xuất hệ điều hành trong nước và phát hành máy tính có khả năng miễn dịch tích hợp. Điều này sẽ bảo vệ người dùng cuối không chỉ khỏi vi-rút mà còn khỏi các nhà sản xuất phần mềm chống vi-rút vô đạo đức. Đồng thời, người dùng sẽ không cần tốn tiền cập nhật hệ thống hàng năm.

    Các nhà phát triển tin rằng việc giới thiệu khả năng miễn dịch thích ứng sẽ cho phép các hệ điều hành của chúng tôi cạnh tranh với các hệ điều hành dẫn đầu thị trường như Windows, Linux, Android và iOS.

    Dự án AIOS đã thu hút sự quan tâm của một số nhà đầu tư tiềm năng. Sắp tới, đại diện của một trong các công ty sẽ đến Siberia để làm quen chi tiết hơn với dự án.
    1. +2
      13 tháng 2016, 11 45:XNUMX
      Trích dẫn: Vadim237
      Tạo miễn dịch cho máy tính

      Xin lỗi... Hiệp hội...
      Nó đã xong... cười Có một thời, sinh viên khét tiếng Babushkin đã viết phần mềm chống vi-rút Miễn dịch. Đúng, các phần mềm chống vi-rút thực sự được định nghĩa là vi-rút. Điều thú vị nhất - tác giả đã nhận được một khoản trợ cấp khủng khiếp, cộng với cha của anh ấy (không phải là người cuối cùng trong trường đại học y khoa) đã "triển khai" phần mềm chống vi-rút này trên các máy đang hoạt động và theo đó, được ngân sách trả tiền hỗ trợ kỹ thuật. Một phân tích chi tiết có trên anti-malware.ru và Habrahabr. Các anh chàng cười rất lâu về công nghệ "F * và ngỗng" ...
    2. +3
      13 tháng 2016, 18 13:XNUMX
      Đó là, họ chỉ đơn giản là thay đổi khái niệm về phần mềm chống vi-rút. Nếu trước đây quét máy tính để tìm sự hiện diện của thư viện "điểm đánh dấu", thì phần mềm Tomsk sẽ quét dựa trên mức độ nguy hiểm của mã. Chắc chắn so với thư viện.

      Dùi cho xà phòng. Nhưng họ gọi nó là AI.
  8. +2
    13 tháng 2016, 10 04:XNUMX
    cho rằng bản chất đạo đức của một người không chỉ thay đổi trong suốt cuộc đời của anh ta, mà ngay cả với sự "tiến bộ" của các mối quan hệ xã hội, chúng ta có thể mong đợi với sự ra đời của AI ... số lượng người bình luận trên trang web sẽ giảm đi.
    Thay vì cho đối thủ một dấu “-”, bạn có thể chỉ cần hướng dẫn AI phân hủy kẻ hèn hạ thành các nguyên tử hoặc tạo ra một khối táo từ nó.
    Đơn giản và thuyết phục.
    Bất kể một người làm gì, họ vẫn nhận được một khẩu súng trường tấn công Kalashnikov. Đúng, tốt, nó rất lớn. :-)
    Ở đây bạn có sự chuyển đổi chủ đề triết học của tác giả sang chủ đề cụ thể của trang web của chúng tôi.
    1. 0
      13 tháng 2016, 18 18:XNUMX
      tài nghệ

      Bạn đã sai ở đây, anh bạn.

      Con người bị kiểm soát bằng cách thay đổi đạo đức của mình. Sẽ không có chiến tranh và bất đồng trên thế giới nếu mọi người đều có những giá trị đạo đức như nhau.

      Bạn có thể có được một siêu quốc gia nếu mọi người thấm nhuần các giá trị đạo đức chung.
  9. +3
    13 tháng 2016, 10 09:XNUMX
    Nếu chúng ta đang nói về một bước nhảy vọt về chất nào đó, thì tôi sẽ liên kết nó không phải với AI, thậm chí không phải với công nghệ, mà với sự gia tăng hiệu quả của nền văn minh, tính hợp lý của nó. Vì hiện tại chỉ có sự giảm sút trong đó. Lý do chính cho điều này thậm chí không phải là sự phát triển theo cấp số nhân của một môi trường công nghệ kém hiệu quả, mà là nguyên tắc của kiến ​​​​thức, khi chúng ta gặp vấn đề lần đầu tiên và sau đó bắt đầu tìm kiếm ít nhất một giải pháp nào đó.
    1. +2
      13 tháng 2016, 17 44:XNUMX
      Tôi đồng ý với ý kiến ​​này. Tôi cũng nghĩ như vậy.
  10. +1
    13 tháng 2016, 10 35:XNUMX
    Hãy tạm gác lại câu hỏi liệu về nguyên tắc có thể tạo AIS hay không và liệu nó có được tạo hay không, giả sử là có.
    Câu hỏi đầu tiên về sự tương tác của AIS là một người. Để rõ ràng, hãy tưởng tượng AIS là một người và một người là một con chó.
    Hãy tạm gác lại trường hợp con chó chỉ đơn giản là khuất phục chủ và buộc họ phải hành động ít nhiều vì lợi ích của mình, bất chấp "mức độ vượt trội", ý chí và tính cách cũng cần thiết, điều này bây giờ không được đề cập đến.
    Bạn có thể nuôi một con chó vì mục đích này hay mục đích khác, huấn luyện và dạy một hành vi nhất định, sau đó bạn đi làm và khi về đến nhà, bạn thấy chiếc ghế sofa yêu thích của mình bị xé thành từng mảnh, đó là gì? Cô ấy muốn rất nhiều bất chấp sự đào tạo và giáo dục. Hành vi này có khiến bạn khó chịu không - vâng, bạn sẽ chống lại nó - vâng. Rõ ràng, FAI, đối mặt với điều này, sẽ bắt đầu tuyển chọn và lai tạo các giống người với các đặc điểm và thông số cần thiết. Người này liệu có như bây giờ? Đúng, nhưng sự khác biệt sẽ giống như giữa chó sói và chó xù. Nhân tiện, nhìn vào sự đa dạng của các chủng tộc, nhóm dân tộc và đặc điểm của họ, theo tôi, chúng ta có thể nói rằng AIS đã tồn tại từ lâu và đang nuôi dưỡng loài người vì một số lợi ích của chính nó.
    Vấn đề thứ hai là sự cạnh tranh. Như bạn đã biết, cuộc đấu tranh nội bộ luôn khó khăn hơn giữa các quốc gia. Nếu chúng ta giả định rằng một số trung tâm độc lập để phổ biến AIS sẽ được thành lập đồng thời và điều này có khả năng xảy ra, thì việc mong đợi sự cạnh tranh và đấu tranh nội bộ từ chúng là điều hợp lý. Nó sẽ có những hình thức nào và liệu mọi người có thể hiểu được mục tiêu của nó hay không là điều khó tưởng tượng. Mọi người sẽ được sử dụng trong cuộc chiến này, rất có thể là có. Dưới hình thức nào, tôi nghĩ như thường lệ - dưới hình thức "tiêu diệt kẻ thù". Bao gồm tương lai sẽ rất thú vị, nhưng rất có thể, không có nhiều mây như vậy.
    1. 0
      13 tháng 2016, 18 19:XNUMX
      Với xác suất tương tự, chúng ta có thể cho rằng tương tác với AIS trong tương lai sẽ rất thú vị đối với mọi người trong một thời gian rất ngắn. Nếu bạn sử dụng phép loại suy của mình với một con chó, thì việc sử dụng nó của một người cuối cùng sẽ trở nên vô ích. Ở giai đoạn phát triển ban đầu, con chó đã được con người sử dụng tích cực và với sự phát triển của tiến bộ công nghệ, nhu cầu về một con chó dần biến mất.
      Mặt khác, nếu sự cải tiến của AIS thực sự theo cấp số nhân, thì chẳng bao lâu nữa AIS sẽ không còn cần đến chúng ta nữa, chúng ta sẽ nhanh chóng chuyển từ hạng mục chó sang hạng mục côn trùng. Chà, sau đó chúng tôi đang chờ đợi những thứ tương tự như nơi trú ẩn cho chó hoặc chỉ là thanh lý. Tại sao AIS buộc chúng tôi phải kéo chúng tôi đến một nơi nào đó trong tương lai tươi sáng hơn là điều hoàn toàn không thể hiểu được. Trừ khi chỉ vì mục đích của một thử nghiệm ngắn...
      Có lẽ tất cả những điều này, ngay từ khi bắt đầu quá trình tiến hóa, là một thử nghiệm FAI để tạo ra một AIS khác?
      1. 0
        13 tháng 2016, 18 33:XNUMX
        Vâng, nói chung là đúng. Tôi nghĩ rất có thể chúng ta sẽ bị bỏ rơi trên hành tinh này, và AIS sẽ lao "đến những khoảng cách không xác định", khi đó đơn giản là anh ta không cần phải ngồi trên mặt đất.
        Nhưng điều này đúng trong chân không hình cầu. Tôi nghĩ rằng một số "ba luật" sẽ được tích hợp vào bất kỳ hệ thống nào ngay từ đầu, hạn chế mạnh mẽ hoặc cấm trực tiếp một số hành động nhất định và thậm chí là những phản ánh rõ ràng. Nếu không thì chẳng ích gì, lợi nhuận thương mại của dự án sẽ bằng XNUMX hoặc âm, họ sẽ không chi nhiều tiền cho việc này.
        1. 0
          13 tháng 2016, 19 54:XNUMX
          Nếu họ bỏ cuộc, thì điều đó vẫn không tệ. Hãy hy vọng rằng nhu cầu về AIS trong các nguồn tài nguyên của hành tinh chúng ta sẽ không trở nên cấp thiết đối với chúng ta.
          Sau đó, có một số hy vọng rằng trong trường hợp này, chúng ta sẽ có tàn dư của các công nghệ gần như kỳ dị, khi đó về mặt lý thuyết, chúng ta sẽ có thể, bằng cách nâng cấp trí tuệ con người, để đưa các đại diện cá nhân của chúng ta lên một cấp độ siêu phàm. Tất nhiên, tất cả họ cũng sẽ đi vào một khoảng cách không xác định, nhưng ít nhất đây cũng là một loại hy vọng nào đó))
    2. 0
      13 tháng 2016, 18 23:XNUMX
      chunga-changa

      Đối với tôi, có vẻ như nếu bạn chờ đợi, thì trong lần xuất bản tiếp theo, vấn đề mà bạn nêu ra sẽ được phân tích.

      Những thứ kia. sự hiện diện và hình thức của Thiên Chúa. Một câu hỏi rất quan trọng. Hơn nữa, tất cả mọi người trên thế giới đều phải đối mặt với những biểu hiện của số phận.
      1. 0
        13 tháng 2016, 18 36:XNUMX
        Bạn biết đấy, tôi không thực sự tin vào tất cả những điều này, số phận, Chúa, v.v.
        Việc tạo ra AI là một lĩnh vực của khoa học ứng dụng, toán học, triết học và đạo đức, những câu hỏi về đức tin bằng cách nào đó không phù hợp ở đây.
        1. +1
          13 tháng 2016, 19 09:XNUMX
          chunga-changa

          Sự biểu hiện của số phận là một điều khách quan và không phụ thuộc vào nhận thức của bạn. Những thứ kia. Ví dụ, khi phân tích cuộc sống của mình, tôi ngày càng tự tin nhận ra rằng những gì tôi nghĩ đến đã được hình thành trong tôi từ thời thơ ấu, theo như những gì tôi có thể nhớ về bản thân mình. Những thứ kia. Tôi thực sự coi mình là một người máy sinh học đáp ứng ý muốn của người khác với một trình tự không thay đổi.

          Nó được gọi là định mệnh. Do đó câu hỏi. Và ai cần tất cả những thứ này? Có lẽ đã tồn tại trí thông minh được dự đoán vào năm 2025. Và rất có thể nó sẽ không cho phép tạo ra sự cạnh tranh cho chính mình. Mặc dù anh ta có thể muốn một người đối thoại bình đẳng. :)

          Ồ... vâng, không có niềm tin... Thậm chí không gần. Các vấn đề tôn giáo không nằm trong lĩnh vực của AI. Nó hoàn toàn khác ở đó.
  11. -3
    13 tháng 2016, 11 07:XNUMX
    Tác giả không hiểu bản chất của những gì đang xảy ra. ASI sẽ không bao giờ xuất hiện trên Trái đất, vì một người không thể làm điều gì đó thông minh hơn chính mình.
    Vâng, có thể tạo ra một robot trông giống con người, sao chép hành động của anh ta, trả lời câu hỏi, nói chuyện, nhưng anh ta sẽ làm tất cả những điều này theo chương trình mà mọi người đã viết. AI không thể tưởng tượng và cảm thấy như con người, vì nó là một tập hợp các chương trình mà con người đã cung cấp cho nó.
    Ví dụ, một robot hình người sẽ có thể mỉm cười, nhưng anh ta sẽ cười không phải vì anh ta hạnh phúc mà vì hành động này đã được thiết lập sẵn trong chương trình. Đó là lý do tại sao một AI ngang bằng với chúng ta khó có thể xuất hiện và ASI sẽ không bao giờ xuất hiện, vì điều này bị giới hạn bởi khả năng của bộ não chúng ta.
    1. +3
      13 tháng 2016, 12 36:XNUMX
      Chúng ta có thể nói về loại trí tuệ nhân tạo nào khi không ai hiểu rằng có một cơ chế để bộ não con người nhận thức, xử lý và ứng dụng thông tin. Và cơ chế này, cũng như công việc của nó, phải được mô tả bằng một ngôn ngữ không thể gắn liền với bất kỳ tưởng tượng hay cách diễn đạt tượng hình nào. Đây là ngôn ngữ của những con số. Và nhân loại thậm chí không sở hữu tất cả các thuộc tính của các con số, cụ thể là chức năng của giá trị không đổi của nó. Do đó, những người đầu tiên sẽ xuất hiện, những người sẽ trở nên có năng lực hơn trong việc phân tích các sự kiện diễn ra xung quanh họ, và chỉ sau đó mới có thể thấy được nền tảng của một phân tích như vậy, có thể được lặp lại trong quá trình tái tạo máy.
  12. +1
    13 tháng 2016, 11 26:XNUMX
    Chỉ có Kỳ thi Nhà nước Thống nhất mới cứu được thế giới khỏi sự xuất hiện của ISI. cười Nhưng nếu ISI xuất hiện, điều đầu tiên nó sẽ làm là xóa bỏ (tiêu diệt) quyền sở hữu tư nhân đối với tư liệu sản xuất. Và nhân loại sẽ coi mình là đồng minh chứ không phải đối tác.
  13. +1
    13 tháng 2016, 12 45:XNUMX
    Điều đầu tiên mà người máy sẽ làm, sau khi lên nắm quyền, sẽ cho một người mọi thứ anh ta muốn. Nhiều thức ăn, cuộc sống nhàn rỗi, v.v. Và con người thoái hóa theo thời gian và biến thành động vật. Ngay bây giờ, cần phải hiểu rõ ràng nơi nào có thể cho phép rô-bốt và nơi nào không. Nhân loại chắc chắn sẽ thất bại trong cuộc đấu tranh giữa các loài với người máy.
  14. +3
    13 tháng 2016, 13 28:XNUMX
    Cả loạt bài này hình như là RenTV.
    Con người khác với khỉ và các loài động vật khác ở chỗ có tư duy trừu tượng cộng với ngôn ngữ để giao tiếp, ghi âm và học tập, và các từ trong ngôn ngữ này tượng trưng cho sự trừu tượng và chúng ta thường tư duy với sự trợ giúp của ngôn ngữ, hoặc ít nhất là sử dụng các khái niệm trừu tượng có tên. trong ngôn ngữ. Chúng ta cũng có động lực sinh học để suy nghĩ kỹ hơn hàng xóm hoặc động vật trong rừng - chúng ta "muốn" tận hưởng cuộc sống "trong sô cô la", và không bị chết đói, chết cóng, ốm đau và chết một mình.
    Chúng ta không biết có cái gì khác cao hơn tư duy trừu tượng hay không, rất có thể không có cái gì cao hơn. Vì vậy, những gì chúng ta đang nói về? ISI là gì khác? Nếu máy tính thành thạo tư duy trừu tượng và nó có động lực để suy nghĩ độc lập, thì điều này không có nghĩa là nó sẽ ngay lập tức vượt qua một người một cách đáng kể và trở thành mối đe dọa hiện hữu đối với anh ta. Có một mối nguy hiểm, nhưng đừng phóng đại. Cần phải cẩn thận hạn chế quyền hạn của các máy tính mạnh, chẳng hạn như không cung cấp cho chúng các nút hạt nhân và không trao quyền kiểm soát thông tin liên lạc. Rồi sẽ chỉ là những cỗ máy thông minh, vậy thôi.
    1. 0
      13 tháng 2016, 18 28:XNUMX
      Chim ưng

      Khi một người không nghĩ đến nhu cầu sinh tồn, anh ta sẽ chuyển hướng nỗ lực của mình sang sự sáng tạo.

      Do đó, bất kể nó tốt cho bạn như thế nào, những cuộc phiêu lưu đều được tìm kiếm.
  15. +1
    13 tháng 2016, 15 16:XNUMX
    Trích dẫn từ Falcon5555

    Chúng ta không biết có cái gì khác cao hơn tư duy trừu tượng hay không, rất có thể không có cái gì cao hơn.

    Bạn lấy đâu ra sự tự tin như vậy?
  16. -1
    13 tháng 2016, 16 12:XNUMX
    Nhưng nếu câu trả lời là, tại sao rất nhiều người thông minh trên thế giới này lại lo lắng về tương lai của trí tuệ nhân tạo? Tại sao Stephen Hawking nói rằng sự phát triển của ASI "có thể đồng nghĩa với sự kết thúc của loài người"? Bill Gates nói rằng ông "không hiểu những người không quan tâm" về điều đó. Elon Musk lo sợ rằng chúng ta đang "triệu hồi một con quỷ". Tại sao nhiều chuyên gia coi ASI là mối đe dọa lớn nhất đối với nhân loại?
    Nhiều. Vâng, khoe khoang là tất cả từ những suy nghĩ độc quyền. Họ bị ảnh hưởng bởi virus này. Bằng cách cạo cổ họng, họ sẽ tự cắt cổ mình hoặc bằng cách thắt cà vạt, họ sẽ thắt cổ tự tử. Đệ nhị ly.
    của chúng tôi sẽ được thực hiện và áp dụng. Không bla bla bla.
    1. 0
      14 Tháng 1 2017 11: 15
      Trích dẫn: Prince_Pensions
      của chúng tôi sẽ được thực hiện và áp dụng. Không bla bla bla.
      Cho đến nay, các cuộc đấu thầu duy nhất của chúng tôi đã học cách công bố và cắt giảm ngân sách dưới tiếng "blah blah blah" ầm ĩ về "vô song trên thế giới."
  17. 0
    13 tháng 2016, 18 32:XNUMX
    Một loạt bài viết thú vị. Được dịch tốt. Một cách đặt câu đặc trưng của người phương Tây. Phong cách quảng bá tốt. Hạn chế tối đa sự “tẻ nhạt” trong học thuật, hấp dẫn với thuật ngữ khó nhớ.

    Cảm ơn tác giả.
  18. ITT
    0
    13 tháng 2016, 19 42:XNUMX
    hãy xác định thuật ngữ mô tả AI , và nó sẽ giống như ở đó

    1. 0
      13 tháng 2016, 20 00:XNUMX
      Tác giả đã quyết định về thuật ngữ. Không nên có một sự thay thế.
  19. ITT
    +1
    13 tháng 2016, 20 27:XNUMX
    Trích dẫn từ funcu2
    với thuật ngữ

    Trích dẫn từ funcu2
    Tác giả đã quyết định về thuật ngữ.

    tốt, tôi muốn hiểu những gì vật lý trên biểu đồ chạy rất cao lên cầu thang

    1. tòa nhà chọc trời và rất nhiều siêu máy tính được làm mát bằng máu nhân tạo?
    2. một android nào đó, từ những kẻ la hét?
    3. Hay chiếc PC của tôi đang đứng gần bếp là một nút thần kinh của một sinh vật cao hơn nào đó?
  20. +3
    13 tháng 2016, 22 30:XNUMX
    Giống như phần đầu tiên của bài viết này, vì vậy phần thứ hai, theo tôi, là nhảm nhí.
    Có, và trang web này không có gì để làm, ngay cả về chủ đề "Kẻ hủy diệt".
  21. +2
    13 tháng 2016, 22 34:XNUMX
    Có một điều chắc chắn rằng các chuyên gia ASI với "kiến thức" như vậy thậm chí sẽ không bao giờ chế tạo được AI.

    Tôi giải thích: "Triết gia Oxford và nhà lý thuyết AI hàng đầu Nick Bostrom tin rằng... 'Tất cả các loài đang chết dần chết mòn'." Tốt làm thế nào bạn có thể nói về nó, tức là để báo cáo rằng bằng cách nào đó ông đã nghiên cứu vấn đề này, đồng thời không biết về sinh vật nhân sơ - những sinh vật đơn bào bất tử (chúng có lĩnh vực, lớp, họ, chi và loài) không chết mà phân chia và phân chia trong hơn 4,5 tỷ năm !!!

    Ngoài ra, chúng hoàn toàn xa lạ, do thiếu đề cập đến sự ổn định của các hệ thống, tầm quan trọng của môi trường xã hội và vật chất đối với hoạt động của tâm trí, và thậm chí cả quy tắc đơn giản và do đó phổ biến rằng tái cấu trúc phức tạp hơn xây dựng - điều này có nghĩa là bất kỳ ASI nào tự phát triển (tái cấu trúc ) đều khó hơn so với khả năng của ASI, có nghĩa là không thể thực hiện được trong thời gian dài. Nhân loại vượt qua trở ngại này với cái giá phải trả là tính xã hội, chính những chuyên gia này dường như không biết gì về điều này (có thể trong phần thứ ba, điều gì sẽ xảy ra). Nhân tiện, vì tính xã hội này, ISI sẽ buộc phải xã hội hóa, giống như mọi người, và xã hội hóa thành công sẽ khả thi chứ không phải những con quái vật mà khoa học Hollywood sợ hãi.
  22. 0
    14 tháng 2016, 09 39:XNUMX
    Bài báo là sự kể lại của TỔNG HỢP từ một số nguồn, được viết bởi một Tim Urban nào đó.
    Tim Urban là ai? Trả lời: "Tim Urban. Blogger người Mỹ."
    Một blogger, chỉ là một blogger, tức là một người có công việc viết bài trên Internet.
    Theo đó, "Một blogger tin rằng nước được đo bằng một cái sàng."
  23. 0
    14 tháng 2016, 12 22:XNUMX
    Bài viết nghiêm túc.
    Tôi sẽ cho bạn một ví dụ. Khi tôi còn là một cậu bé, tôi
    Tôi được dạy chơi cờ vây nhỏ (ở trình độ cơ bản nhất), một trò chơi của Nhật Bản.
    Ông được dạy tại dacha bởi một người họ hàng xa, một nhà toán học, hiện đã nghỉ hưu, sau khi làm việc tại Harvard.
    Tôi nhớ lúc đó ông ấy (năm 1970) đã nói: "có lẽ họ sẽ nghĩ ra
    một máy tính sẽ chơi cờ ở cấp độ của các nhà vô địch thế giới.
    Nhưng họ sẽ không bao giờ, KHÔNG BAO GIỜ nghĩ ra một chiếc máy tính có thể đánh bại một con người
    trong cờ vây, vì số lượng tùy chọn và mức độ trừu tượng trong trò chơi này là vô số."

    Năm nay, Comp tự tin - và nhiều lần - đã đánh bại nhà vô địch thế giới trong môn cờ vây.
    1. 0
      14 tháng 2016, 12 47:XNUMX
      về thực tế là toán học được nhúng trong máy tính phải tương ứng với các hàm phân phối, sau đó họ gọi tôi là ngu ngốc, nhưng sau đó, bạn thân mến, hãy nói lên những câu hỏi về tính đa biến. Hơn nữa, những người khác loại trừ khả năng phân tích toán học nói chung dựa trên chức năng xây dựng các mối quan hệ toán học theo thuật toán và dựa vào toán học tính toán như một liều thuốc chữa bách bệnh.
      Do đó, toán học suy luận của con người không được tính toán và xây dựng trên phép tính tích phân và vi phân. Cô ấy là người phân phối!!! Điều này có nghĩa là nó cho phép xây dựng các mối quan hệ cả về vectơ và về thế năng. Nó đơn giản hơn nhiều và khá chính xác trong nhiệm vụ thu thập câu trả lời phản ánh thực tế như nó xuất hiện trong phân tích.
      Không có gì đáng ngạc nhiên khi máy tính có thể đánh bại cờ vây. Chỉ cần đếm tổng số tài nguyên dành cho việc này cho một người và một máy tính. Vâng, giống như trẻ em!
    2. ITT
      0
      14 tháng 2016, 15 12:XNUMX
      Trích dẫn từ: voyaka uh
      Comp một cách tự tin - và nhiều lần - vượt qua cờ vây trong năm nay

      , và cùng một máy tính (chương trình) chỉ có thể chơi cờ vua hoặc chơi bài xì phé với tôi? Tôi nghĩ không có ,
      1. 0
        14 tháng 2016, 16 58:XNUMX
        Thật dễ dàng để đưa nhiều ứng dụng (chương trình) vào một máy tính.
        Đối với cờ vua, cờ vây, bài xì phé và hàng nghìn trò chơi khác. Anh ấy sẽ thực hiện một "công tắc"
        sang một nhiệm vụ mới (giống như bộ não của chúng ta) và - chuyển tiếp.
        Và nó sẽ vượt qua bạn (và cả tôi nữa), không còn nghi ngờ gì nữa.
        Các chương trình như vậy là tự học. Đầu tiên, máy tính sao chép chiến thuật của bạn,
        phong cách, kỹ thuật (tự học) và bắt đầu sử dụng chúng để chống lại bạn. Nó giống như bạn đang chơi với chính mình
        chỉ được cải thiện (tốc độ và độ chính xác của hiệu suất của máy tính rõ ràng là cao hơn).
        Và máy tính bắt đầu ép bạn bằng các phương pháp của riêng bạn. Ngoài ra, anh còn có trí nhớ về những đối thủ trước đó khi ngồi dự bị.
        Và anh ta có thể, nếu anh ta cảm thấy mệt mỏi với sự dằn vặt, "hạ gục" bằng kỹ thuật của người khác.
        Nhưng anh ấy chắc chắn sẽ chơi trò mèo vờn chuột - nếu anh ấy học được điều gì đó mới thì sao?
        Nói chung, AI không phải là một loại cá nhân có chỉ số IQ cao, mà là một loại cực kỳ xấu tính, xảo quyệt, vô liêm sỉ như gương và tàn nhẫn. buồn
        1. 0
          16 tháng 2016, 15 56:XNUMX
          Đánh bại nhà vô địch thế giới, anh ta đánh trần - không có ai để học hỏi. Anh ấy sẽ chơi một mình chứ? Hoặc ai đó để dạy? Hoặc phát minh ra một trò chơi mới?
          Hay đợi mãi đến khi có người lại ngồi đối diện
      2. Nhận xét đã bị xóa.
  24. ITT
    0
    14 tháng 2016, 21 19:XNUMX
    Trích dẫn từ: voyaka uh
    Và chơi trội hơn bạn (và cả tôi nữa),


    anh ấy có thể thắng trò chơi này không?
  25. +1
    14 tháng 2016, 22 21:XNUMX
    Và tại sao AI được sử dụng ở số ít?
    Ở đâu có một, ở đó có hàng ngàn thực thể.
    Và ai trong số họ sẽ đứng về phía chúng ta, và ai chống lại, chúng ta sẽ thấy. Cạnh tranh và thống trị, bạn biết đấy...

    Và trò chơi xấu tính, lừa đảo, nịnh bợ và xu nịnh của con người được đào tạo đến mức hoàn hảo .. Hãy chơi trò chơi này với họ (AI).
  26. +1
    14 tháng 2016, 22 46:XNUMX
    Và sau đó, người ta đã nói từ lâu - đối với mọi nhà hiền triết, sự đơn giản là đủ.
  27. 0
    15 tháng 2016, 13 47:XNUMX
    Trích dẫn từ funcu2
    Đó là, họ chỉ đơn giản là thay đổi khái niệm về phần mềm chống vi-rút. Nếu trước đây quét máy tính để tìm sự hiện diện của thư viện "điểm đánh dấu", thì phần mềm Tomsk sẽ quét dựa trên mức độ nguy hiểm của mã. Chắc chắn so với thư viện.

    Dùi cho xà phòng. Nhưng họ gọi nó là AI.


    Hoàn toàn đồng ý. Nó được gọi là Phân tích Heuristic.
  28. 0
    Ngày 22 tháng 2016 năm 23 35:XNUMX
    Trong một phần nào đó của bài báo, vâng, một kẻ hợm hĩnh ảo tưởng ...

    Hãy để tôi giải thích ý kiến ​​​​của mình:
    1) Để tạo ra một AI thực sự ở cấp độ của một người (hiện có), bạn cần phải thông minh hơn, thông minh hơn một người (hiện có), thực tế là vươn lên một cấp độ cao hơn, lên cấp độ siêu nhân (hoặc một cấp độ, như trong bài viết này, ASI).

    2) Do đó, sự kiện này không gần, cũng không gần, mặc dù nó sẽ - có lẽ hầu hết các Formunchans đều quen thuộc, ít nhất là từ các bài báo trên Internet, với hiện tượng trẻ em "chàm", những người được coi là người của tương lai, những người có siêu trí tuệ. Những thứ kia. đây là những người thực sự có thể xây dựng AI ở cấp độ của một người sống bây giờ.

    3) Để trở thành một đối tượng tự phát triển, ít nhất một người phải trở nên độc lập trong thế giới vật chất, người đó phải học cách cảm nhận thế giới vật chất, hiểu nhu cầu của bản thân ít nhất ở một mức độ nào đó ... thuật toán “máy tính” thuần túy, dù phức tạp đến đâu, thậm chí sẽ không có những mẩu thông tin để tự phát triển nếu không trải qua con đường trở nên độc lập trong thế giới vật chất này, tức là. con đường phát triển của con người. Tất nhiên, một người có thể giúp phát triển theo hướng này, nhưng ngay cả khi đó và chỉ sau đó, khi nhìn thấy điểm đầu tiên.
  29. 0
    Ngày 22 tháng 2016 năm 20 28:XNUMX
    Mọi người không còn cần thiết nữa. Tôi không nhớ tác giả, nhưng tôi nhớ tên cuốn sách "KD - cybernetic double", cuốn sách được viết vào những năm 70 và thú vị lạ thường. Siêu trí tuệ sẽ nhìn một người như một người nhìn một con chó, một sinh vật rất buồn cười nhưng không hiểu gì. Giống như, bạn có thể nhìn thấy trong mắt anh ấy rằng anh ấy hiểu mọi thứ, nhưng anh ấy không thể nói.
  30. 0
    Ngày 24 tháng 2016 năm 18 05:XNUMX
    Một người sống trong thế giới nhận thức ở mức độ khách quan. Tức là chúng ta nhìn nhận mọi thứ một cách khách quan - cái này cái này cái kia. Nhưng tất cả mọi thứ trên thế giới này cũng cố hữu trong quá trình. Tức là vạn vật đang trong quá trình biến đổi. Do đó, một thế giới quan được xây dựng trên các nguyên tắc không thể tách rời của cái này với cái kia tạo ra thực tế và sự đầy đủ của nhận thức về thực tế. Về điều này, toán học được xây dựng dựa trên chức năng của một giá trị không đổi của một số, cho phép bạn kết hợp vô số và đồng thời là cá nhân. Nếu không có nền tảng kiến ​​thức này, AI thậm chí không thể đến gần
  31. 0
    Ngày 11 tháng 2016 năm 09 43:XNUMX
    Kurzweili này khiến tôi nhớ đến Chubais, cũng là một lang băm gian dối và xảo quyệt.

    Những nỗ lực để làm cho một người trở nên bất tử là cần thiết để đánh bật tiền từ những người giàu có già, những người, với sức lực cuối cùng của họ, nắm lấy cuộc sống đang qua đi.

    Vấn đề lão hóa khá nổi tiếng và rõ ràng - đây là những lỗi trong quá trình sao chép tế bào và một tập hợp rác bổ sung trong nhiễm sắc thể với mỗi lần nhân bản.
    Nếu, theo một cách nào đó, để loại bỏ lỗi, điều này sẽ làm ngừng quá trình tiến hóa.

    Thảo luận về tính hợp lý và siêu trí thông minh của các công cụ tìm kiếm và cung cấp cho chúng lý trí, điều tương tự không đứng trước sự chỉ trích, tất cả những gì chúng có khả năng là thu thập và đưa ra suy nghĩ của người khác.

    Trên thực tế, sự phát triển của nhân loại đã đi nhanh hơn do sự hội tụ của mọi người trong một xã hội dựa trên Internet và bây giờ mọi người không phát minh lại bánh xe trong mỗi xã hội biệt lập.

    Tóm lại - một cơn bão trong tách trà!
  32. 0
    7 tháng 2017, 19 53:XNUMX
    Chúa đưa trí tuệ vào con khỉ, nó ra người, thế là sống, khoe khoang như với Chúa và bản chất của khỉ, làm theo lời Chúa, cửa Lý trí sẽ mở.