SIÊU TRÍ TUỆ (SUPERINTELLIGENCE) – Nick Bostrom

Cuốn sách dày và khó đọc. Tác giả là triết gia có tiếng trong ngành học thuật, giảng viên của đại học Oxford. Đây không đơn giản là cuốn sách giới thiệu về AI, mà nó bao hàm góc nhìn rộng hơn về tương lai và tác động của công nghệ, mà cụ thể là AI, khi trí tuệ được bùng nổ và ảnh hưởng của nó tới nhân loại. Do chứa nhiều thuật ngữ chuyên môn, nội dung được truyền tải đôi lúc trở nên khó nắm bắt.

Tác giả đưa ra nghiên cứu chuyên sâu và khách quan về các khả năng bùng nổ trí tuệ có thể xảy ra, thời điểm này gọi là “quá trình cất cánh”, và nghiêng nhiều hơn về tốc độ nhanh hoặc trung bình (trang 119). Đồng thời, quá trình này có khả năng mang tính chất tích cực hay tiêu cực cho con người, dù là gì thì tác giả tin rằng kết quả sẽ nghiêng nhiều hẳn sang một trong hai thái cực đó (tức là khả năng tác động của nó không đáng kể hoặc tương đối bình thường sẽ ít xảy ra hơn, mà sẽ mang sắc thái “extreme” về một trong hai hướng).

Sự bùng nổ trí tuệ tất nhiên có thể theo nhiều hướng khác nhau, ví dụ như bộ não sinh học của con người cũng có thể được tiến hóa, nhưng vấn đề là nó sẽ tốn rất nhiều thời gian. Vì vậy nghiên cứu chỉ ra rằng, sự tiến hóa về công nghệ trí tuệ nhân tạo sẽ thắng thế, trở thành sự bùng nộ trí tuệ xảy đến trong tương lai gần.

Mặc dù không đưa ra con số cụ thể về thời điểm, nhưng có thể thấy được sự thay đổi sẽ đến trong khoảng 100 năm trở lại đây, đặc biệt là khoảng 30-60 năm nữa (con số này dựa theo trí nhớ của tôi khi đọc sách, tuy nhiên chưa tìm lại được trang cụ thể nói về nội dung này). Nhiều cuốn sách khác cũng có chỉ ra, thời điểm lịch sử diễn ra sự thay đổi lớn của loài người sẽ diễn ra trong khoảng 10-100 năm nữa, vì vậy mốc mà tác giả đã đưa ra là tương đối phù hợp với các nghiên cứu khác.

Ngay từ đầu trang sách, Nick Bostrom đã chỉ ra sự việc sắp tới sẽ gọi làm “thảm họa”. Như vậy ông vẫn nghiêng nhiều về chiều hướng tiêu cực của siêu trí tuệ hơn, và các phân tích trong sách cũng nghiêng về xu hướng này. Cụ thể, khi AI trở nên đủ mạnh, chúng sẽ tạo ra kết quả có liên quan đến việc tái cấu hình những tài nguyên đang có trên mặt đất thành bất cứ loại cấu trúc nào nhằm tối đa hoa việc đạt được mục tiêu của chúng. Ví dụ, AI cần tiêu thụ điện nhiều hơn để trở nên mạnh hơn, vì vậy chúng sẽ tạo ra các “âm mưu” xây dựng cơ sở hạ tầng phù hợp để cung cấp điện cho chúng. Kết quả là, mặc dù không trực tiếp có mục đích xấu tới con người, quá trình tối ưu hóa tài nguyên trên mặt đất sẽ khiến cho các nguồn tài nguyên dành cho con người bị biến mất theo. Ví dụ, có thể chúng ta sẽ không còn đất trồng trọt, dẫn tới thiếu hụt thức ăn và cuối cùng là cái chết.

Là một nhà triết học, tác giả vận dụng nhiều kiến thức khác nhau để tư duy về kết cục sắp tới của nhân loại. Mặc dù còn nhiều mơ hồ, tuy nhiên biện pháp cụ thể được nêu ra rõ nhất, cũng là thách thức cho chúng ta ngay bây giờ, đó là phải giữ lấy nhân tính của mình: duy trì được sự vững chắc, lương tri và tính đúng đắn. Việc giảm thiểu rủi ro diệt vong và duy trì quỹ đạo nền văn minh cuối cùng sẽ dẫn tới biện pháp cần ưu tiên hàng đầu, chính là bài học về đạo đức của con người.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s