Những câu hỏi đạo đức lớn nhất mà AI vẫn chưa thể thoát khỏi
Thung lũng Silicon từng hứa hẹn rằng trí tuệ nhân tạo (AI) sẽ giải quyết những vấn đề hóc búa nhất của nhân loại. Thay vào đó, công nghệ này lại tạo ra hàng loạt điểm nghẽn mới mà không lượng code nào có thể khắc phục được. Chúng ta đang bước qua giai đoạn trầm trồ kinh ngạc để tiến vào thời kỳ cần sự trách nhiệm nghiêm túc. Vấn đề cốt lõi không nằm ở viễn cảnh máy móc nổi dậy trong tương lai, mà là thực tế hiện tại về cách các hệ thống này được xây dựng và triển khai. Mọi large language model đều dựa trên nền tảng lao động con người và dữ liệu được thu thập. Điều này tạo ra xung đột cơ bản giữa các công ty phát triển công cụ và những người tạo ra công việc nuôi sống các công cụ đó. Các nhà quản lý tại châu Âu và Hoa Kỳ hiện đang đặt câu hỏi ai sẽ chịu trách nhiệm khi một hệ thống gây ra sai lầm làm hủy hoại cuộc đời một người. Câu trả lời vẫn chưa rõ ràng vì các khung pháp lý vốn không được xây dựng cho loại phần mềm có mức độ tự chủ cao như thế này. Chúng ta đang thấy sự chuyển dịch trọng tâm từ việc công nghệ có thể làm gì sang việc nó nên được phép làm gì trong đời sống công cộng.
Sự cọ xát của việc ra quyết định tự động
Về cốt lõi, AI hiện đại là một công cụ dự đoán. Nó không hiểu về sự thật hay đạo đức. Nó tính toán xác suất của từ hoặc pixel tiếp theo dựa trên các bộ dữ liệu khổng lồ. Sự thiếu hụt khả năng thấu hiểu tự nhiên này tạo ra khoảng cách giữa kết quả đầu ra của máy móc và các yêu cầu về công lý của con người. Khi một ngân hàng sử dụng thuật toán để xác định khả năng tín dụng, hệ thống có thể xác định các mô hình tương quan với chủng tộc hoặc mã bưu chính. Điều này không phải vì máy móc có ý thức, mà vì dữ liệu lịch sử dùng để huấn luyện nó chứa đựng những định kiến đó. Các công ty thường che giấu những quy trình này đằng sau các bí mật thương mại, khiến người bị từ chối không thể biết lý do tại sao. Sự thiếu minh bạch này là đặc điểm định hình kỷ nguyên tự động hóa hiện nay. Nó thường được gọi là vấn đề hộp đen (black box problem).
Thực tế kỹ thuật là các mô hình này được huấn luyện trên internet mở, vốn là kho lưu trữ cả kiến thức lẫn định kiến của con người. Các nhà phát triển cố gắng lọc dữ liệu này, nhưng quy mô quá lớn khiến việc quản lý hoàn hảo là bất khả thi. Khi chúng ta nói về đạo đức AI, thực chất là chúng ta đang nói về cách xử lý các sai sót mà các hệ thống này chắc chắn sẽ tạo ra. Đang có sự căng thẳng ngày càng tăng giữa tốc độ triển khai và nhu cầu an toàn. Nhiều công ty cảm thấy áp lực phải tung ra sản phẩm trước khi hiểu rõ hoàn toàn để tránh mất thị phần. Điều này tạo ra tình huống công chúng trở thành nhóm đối tượng thử nghiệm không tự nguyện cho các phần mềm chưa được kiểm chứng. Hệ thống pháp luật đang chật vật theo kịp tốc độ thay đổi khi các tòa án tranh luận liệu một nhà phát triển phần mềm có thể bị quy trách nhiệm cho những ảo giác (hallucinations) do sản phẩm của họ tạo ra hay không.
Khoảng cách số toàn cầu mới
Tác động của các hệ thống này không được phân bổ đồng đều trên toàn cầu. Trong khi trụ sở của các công ty AI lớn nằm ở một vài quốc gia giàu có, hậu quả từ công việc của họ lại hiện hữu ở khắp mọi nơi. Một hình thức bóc lột lao động mới đang xuất hiện ở các nước đang phát triển. Hàng ngàn công nhân ở các quốc gia như Kenya và Philippines được trả lương thấp để dán nhãn dữ liệu và lọc bỏ nội dung gây sang chấn. Những người lao động này là tấm lưới an toàn vô hình ngăn AI xuất ra các nội dung độc hại, nhưng họ hiếm khi được chia sẻ lợi nhuận của ngành. Điều này tạo ra sự mất cân bằng quyền lực khi các quốc gia giàu có kiểm soát công cụ, trong khi các quốc gia đang phát triển cung cấp lao động thô và dữ liệu cần thiết để duy trì chúng.
Sự thống trị văn hóa là một mối quan tâm đáng kể khác đối với cộng đồng quốc tế. Hầu hết các mô hình lớn được huấn luyện chủ yếu trên dữ liệu tiếng Anh và các chuẩn mực văn hóa phương Tây. Điều này có nghĩa là các hệ thống thường không hiểu được bối cảnh địa phương hoặc các ngôn ngữ có ít tài nguyên số hơn. Khi các công cụ này được xuất khẩu, chúng có nguy cơ ghi đè kiến thức địa phương bằng một góc nhìn phương Tây đồng nhất. Đây không chỉ là một lỗi kỹ thuật mà là mối đe dọa đối với sự đa dạng văn hóa. Các chính phủ đang bắt đầu nhận ra rằng việc dựa vào cơ sở hạ tầng AI nước ngoài tạo ra một loại phụ thuộc mới. Nếu một quốc gia không có năng lực AI tự chủ, họ phải tuân theo các quy tắc và giá trị của các công ty cung cấp dịch vụ đó. Cộng đồng toàn cầu hiện đang phải vật lộn với một số vấn đề quan trọng:
- Sự tập trung quyền lực tính toán vào một số ít tập đoàn tư nhân.
- Chi phí môi trường của việc huấn luyện các mô hình khổng lồ ở những khu vực khan hiếm nước.
- Sự xói mòn của các ngôn ngữ địa phương trong không gian số bị thống trị bởi các mô hình lấy tiếng Anh làm trung tâm.
- Sự thiếu hụt các thỏa thuận quốc tế về việc sử dụng các hệ thống tự hành trong chiến tranh.
- Khả năng thông tin sai lệch tự động gây mất ổn định các cuộc bầu cử dân chủ.
Sống cùng thuật toán
Hãy xem xét một ngày trong cuộc đời của Sarah, một quản lý cấp trung tại một công ty logistics. Buổi sáng của cô bắt đầu với bản tóm tắt email do AI tạo ra. Hệ thống làm nổi bật những gì nó cho là công việc khẩn cấp nhất, nhưng nó lại bỏ lỡ một lời phàn nàn tinh tế từ một khách hàng lâu năm vì công cụ phân tích cảm xúc không nhận ra sự mỉa mai. Sau đó, cô sử dụng một công cụ tạo nội dung để soạn thảo đánh giá hiệu suất cho một nhân viên. Phần mềm gợi ý mức xếp hạng thấp hơn dựa trên các chỉ số năng suất mà không tính đến thời gian nhân viên đó dành để hướng dẫn nhân viên mới. Sarah phải quyết định tin vào phán đoán của chính mình hay đề xuất dựa trên dữ liệu của máy móc. Nếu cô phớt lờ AI và nhân viên đó sau này thất bại, cô có thể bị đổ lỗi vì không tuân theo dữ liệu. Đây là áp lực thầm lặng của quản lý bằng thuật toán.
Vào buổi chiều, Sarah đăng ký một hợp đồng bảo hiểm mới. Công ty bảo hiểm sử dụng hệ thống tự động để quét mạng xã hội và hồ sơ sức khỏe của cô. Hệ thống gắn cờ cô là đối tượng rủi ro cao vì cô mới tham gia một nhóm đi bộ đường dài, điều mà thuật toán liên kết với nguy cơ chấn thương tiềm ẩn. Không có con người để trò chuyện và không có cách nào để giải thích rằng cô là một người đi bộ đường dài có kinh nghiệm với sức khỏe tốt. Phí bảo hiểm của cô tăng ngay lập tức. Đây là hậu quả thực tế của một hệ thống ưu tiên hiệu quả hơn sự tinh tế của cá nhân. Đến tối, Sarah lướt một trang tin tức nơi một nửa số bài báo được viết bởi bot. Cô thấy ngày càng khó để phân biệt đâu là sự thật được báo cáo và đâu là bản tóm tắt tổng hợp được thiết kế để khiến cô tiếp tục nhấp chuột. Sự tiếp xúc liên tục với nội dung tự động này làm thay đổi cách cô cảm nhận thực tế.
BotNews.today sử dụng các công cụ AI để nghiên cứu, viết, chỉnh sửa và dịch nội dung. Đội ngũ của chúng tôi xem xét và giám sát quy trình để giữ cho thông tin hữu ích, rõ ràng và đáng tin cậy.
Cái giá của hiệu quả
Chúng ta phải đặt ra những câu hỏi khó về cái giá ẩn giấu của quỹ đạo hiện tại. Nếu một hệ thống AI giúp công ty tiết kiệm hàng triệu đô la nhưng dẫn đến việc mất đi hàng ngàn việc làm, ai là người chịu trách nhiệm cho chi phí xã hội đó? Chúng ta thường coi tiến bộ công nghệ là một lực lượng tự nhiên tất yếu, nhưng nó là kết quả của những lựa chọn cụ thể được thực hiện bởi những cá nhân với những động cơ cụ thể. Tại sao chúng ta ưu tiên tối ưu hóa lợi nhuận hơn là sự ổn định của thị trường lao động? Ngoài ra còn có câu hỏi về quyền riêng tư dữ liệu trong kỷ nguyên mà mọi tương tác đều là một điểm dữ liệu huấn luyện. Khi bạn sử dụng một trợ lý AI miễn phí, bạn không phải là khách hàng; bạn là sản phẩm. Các cuộc trò chuyện và sở thích của bạn được sử dụng để tinh chỉnh một mô hình mà cuối cùng sẽ được bán lại cho bạn hoặc chủ của bạn. Điều gì sẽ xảy ra với khái niệm tư duy riêng tư khi các trợ lý kỹ thuật số của chúng ta liên tục lắng nghe và học hỏi?
Tác động môi trường là một cái giá khác hiếm khi được thảo luận trong các tài liệu tiếp thị. Huấn luyện một mô hình lớn duy nhất có thể tiêu thụ lượng điện năng bằng hàng trăm hộ gia đình sử dụng trong một năm. Nhu cầu làm mát cho các trung tâm dữ liệu đang gây áp lực lên nguồn cung cấp nước địa phương ở các vùng khô hạn. Liệu chúng ta có sẵn sàng đánh đổi sự ổn định sinh thái để lấy một chatbot tốt hơn một chút? Chúng ta cũng phải xem xét tác động lâu dài đối với nhận thức con người. Nếu chúng ta thuê ngoài việc viết lách, lập trình và tư duy phản biện cho máy móc, điều gì sẽ xảy ra với những kỹ năng đó trong dân số loài người? Chúng ta có thể đang xây dựng một thế giới hiệu quả cao nhưng lại đầy rẫy những người không còn có thể hoạt động nếu thiếu đi chiếc nạng kỹ thuật số. Đây không phải là những vấn đề kỹ thuật cần giải quyết bằng nhiều dữ liệu hơn. Đây là những câu hỏi cơ bản về loại tương lai mà chúng ta muốn sinh sống.
Bạn có câu chuyện, công cụ, xu hướng hoặc câu hỏi về AI mà bạn nghĩ chúng tôi nên đề cập không? Gửi cho chúng tôi ý tưởng bài viết của bạn — chúng tôi rất muốn nghe từ bạn.Cơ sở hạ tầng của tầm ảnh hưởng
Đối với những người dùng chuyên nghiệp và các nhà phát triển, các câu hỏi đạo đức được nhúng vào các thông số kỹ thuật. Sự chuyển dịch sang lưu trữ cục bộ và edge computing một phần là phản ứng đối với các mối lo ngại về quyền riêng tư. Bằng cách chạy các mô hình cục bộ, người dùng có thể tránh gửi dữ liệu nhạy cảm đến máy chủ trung tâm. Tuy nhiên, điều này tạo ra một loạt thách thức mới liên quan đến yêu cầu phần cứng và giới hạn API. Hầu hết các mô hình hiệu suất cao đều yêu cầu VRAM đáng kể và các chip chuyên dụng hiện đang khan hiếm. Điều này tạo ra nút thắt cổ chai nơi chỉ những người có phần cứng mới nhất mới có thể truy cập các công cụ mạnh mẽ nhất. Các nhà phát triển cũng đang chật vật với những hạn chế của các kiến trúc hiện tại. Trong khi các mô hình transformer đang chiếm ưu thế, chúng lại nổi tiếng là khó kiểm tra. Chúng ta có thể thấy trọng số và kiến trúc, nhưng chúng ta không thể dễ dàng giải thích tại sao một đầu vào cụ thể lại dẫn đến một đầu ra cụ thể.
Việc tích hợp AI vào quy trình làm việc chuyên nghiệp cũng đang gặp phải bức tường của việc đầu độc dữ liệu (data poisoning) và sự sụp đổ mô hình (model collapse). Nếu internet trở nên bão hòa với nội dung do AI tạo ra, các mô hình tương lai sẽ được huấn luyện trên đầu ra của những người tiền nhiệm. Điều này dẫn đến sự suy giảm chất lượng và khuếch đại các lỗi sai. Để chống lại điều này, một số nhà phát triển đang xem xét các nguồn dữ liệu có thể xác minh và các kỹ thuật đóng dấu bản quyền (watermarking). Ngoài ra còn có sự thúc đẩy cho việc phân tích đạo đức AI minh bạch hơn để giúp người dùng hiểu rõ các rủi ro. Cộng đồng kỹ thuật hiện đang tập trung vào một số lĩnh vực phát triển chính:
- Việc triển khai quyền riêng tư vi sai (differential privacy) để bảo vệ các điểm dữ liệu cá nhân trong các tập huấn luyện.
- Phát triển các mô hình nhỏ hơn, hiệu quả hơn có thể chạy trên phần cứng tiêu dùng.
- Xây dựng các tiêu chuẩn đánh giá để phát hiện định kiến và lỗi thực tế.
- Sử dụng học tập liên kết (federated learning) để huấn luyện các mô hình trên nhiều thiết bị phi tập trung.
- Khám phá các kiến trúc mới cung cấp khả năng giải thích tốt hơn so với các mạng thần kinh tiêu chuẩn.
Con đường chưa có lời giải phía trước
Sự phát triển nhanh chóng của trí tuệ nhân tạo đã vượt xa khả năng quản lý của chúng ta. Chúng ta hiện đang ở trong tình thế bế tắc giữa mong muốn đổi mới và nhu cầu bảo vệ. Những câu hỏi đạo đức lớn nhất không nằm ở khả năng của máy móc mà nằm ở ý định của những người kiểm soát chúng. Khi bước vào tương lai, trọng tâm có lẽ sẽ chuyển từ chính các mô hình sang chuỗi cung ứng dữ liệu và trách nhiệm giải trình của các nhà phát triển. Chúng ta còn lại một câu hỏi sống động sẽ định hình thập kỷ tới. Liệu chúng ta có thể xây dựng một hệ thống vừa đủ mạnh để giải quyết các vấn đề của mình, vừa đủ minh bạch để được tin tưởng? Câu trả lời vẫn chưa được viết bằng code. Nó sẽ được quyết định tại các phòng xử án, phòng họp và những lựa chọn hàng ngày của người dùng, những người phải quyết định xem họ sẵn sàng đánh đổi bao nhiêu quyền tự chủ để lấy sự tiện lợi.
Lưu ý của biên tập viên: Chúng tôi tạo trang web này như một trung tâm tin tức và hướng dẫn AI đa ngôn ngữ dành cho những người không phải là chuyên gia máy tính, nhưng vẫn muốn hiểu trí tuệ nhân tạo, sử dụng nó tự tin hơn và theo dõi tương lai đang đến gần.
Tìm thấy lỗi hoặc điều gì đó cần được sửa chữa? Hãy cho chúng tôi biết.