Cân bằng giữa lợi ích và đạo đức khi phát triển AI
(DNTO) - Công nghệ đang cải thiện cuộc sống của chúng ta theo vô số cách khác nhau. Ngày nay, nhờ tự động hóa, chúng ta có nhiều thời gian hơn bao giờ hết để theo đuổi các hoạt động mà chúng ta yêu thích.
Trí tuệ nhân tạo (AI) đã đóng một vai trò quan trọng trong việc thúc đẩy tự động hóa phát triển trong những năm gần đây, nó đã tiến vào hầu hết các ngành, từ tiếp thị đến chăm sóc sức khỏe. AI đã tăng hiệu quả và đảm nhận nhiều nhiệm khó khăn mà mọi người không muốn làm.
Nhưng AI là vấn đề gây tranh cãi
Có những mối quan tâm chính đáng về đạo đức đã xuất hiện trong những năm gần đây, và điều quan trọng là phải nhận thức được chúng để chúng ta có thể tìm ra các giải pháp tiềm năng.
Chirag Shah, Phó Giáo sư tại bộ phận Thông tin của Đại học Washington giải thích, những vấn đề này có thể trở nên rất phức tạp về mặt đạo đức: “Trong những năm gần đây, khi các ứng dụng AI phát triển mạnh mẽ trên thế giới, các câu hỏi về điều gì là đạo đức, điều gì hợp pháp và điều gì được xã hội chấp nhận đã bắt đầu xuất hiện - nhiều hơn so với trước đây”.
Yêu cầu chủng tộc hoặc giới tính của ai đó trong đơn xin việc có thể là hợp pháp, nhưng sử dụng thông tin đó để sàng lọc họ có hợp pháp không?
Đây không phải là một câu hỏi hay vấn đề mới, nhưng với mức độ chúng ta đang bắt đầu dựa vào các quy trình tự động (ví dụ: sàng lọc ứng viên, dự đoán ý định phạm tội, quyết định tuyển sinh đại học), những câu hỏi như vậy gợi lại cuộc thảo luận lâu đời về đạo đức.
Dưới đây là một số yếu tố đạo đức mà chúng ta cần xem xét khi AI phát triển hơn nữa.
Thành kiến của AI
Một trong những vấn đề lớn nhất với trí tuệ nhân tạo là thực tế rằng nó không thể hoàn toàn khách quan. AI được phát triển bởi con người và nó có những thành kiến tương tự như chúng ta. Những thành kiến này có thể là không cố ý, nhưng chúng đã dẫn đến một số vấn đề nghiêm trọng.
Một ví dụ về điều này là khi phần mềm được thiết kế để dự đoán hành vi tội phạm, được sử dụng để giúp tòa án trong quá trình ra quyết định của họ, thường không chính xác và thiên vị đối với các cá nhân da màu.
Phần mềm nhận dạng khuôn mặt và các thuật toán tài chính cũng có những thành kiến tương tự. Những thành kiến này có tác động thay đổi cuộc sống đối với mọi người, bao gồm không thể đảm bảo một khoản vay hoặc thậm chí không được ra tù khi đủ điều kiện.
Những trường hợp như thế cho thấy mức độ nguy hiểm khi tin tưởng các hệ thống AI hoàn toàn trung lập. Thừa nhận rằng các hệ thống này giữ thành kiến là bước đầu tiên hướng tới công nghệ công bằng hơn.
Rủi ro về tội phạm mạng và trộm cắp dữ liệu
Chúng ta truy cập, làm việc rất nhiều trên mạng và tin tưởng vào các tổ chức tư nhân khác nhau với dữ liệu cá nhân, nhạy cảm và quan trọng nhất của chúng ta.
Mặc dù dữ liệu này phải được bảo vệ và chủ yếu được lưu trữ để thuận tiện cho việc sử dụng, nhưng hành vi trộm cắp dữ liệu vẫn có thể xảy ra hàng ngày.
Từ EHR (Hồ sơ sức khỏe điện tử) đến thông tin thẻ tín dụng, chúng ta chỉ hy vọng rằng các tổ chức lưu trữ thông tin của chúng ta đã đầu tư vào các biện pháp an ninh mạng tốt.
Vấn đề an toàn vật lý
Các phương tiện tự hành, được hỗ trợ bởi AI đang ra đường. Mặc dù hầu hết họ vẫn yêu cầu tài xế ngồi sau tay lái, nhưng các vụ tai nạn đã xảy ra do "tài xế" sơ suất.
Tuy nhiên, khi các phương tiện tự hành phát triển, sẽ có nhiều lo ngại về an toàn vật lý và các vụ va chạm liên quan đến các câu hỏi đạo đức phức tạp.
An toàn vật lý do lỗi AI cũng có thể là một vấn đề trong cơ sở hạ tầng, khi các thành phố thông minh trở nên phổ biến hơn. Mặc dù không thể tránh tất cả các tai nạn và lỗi công nghệ, nhưng chúng ta sẽ phải quyết định mức độ rủi ro có thể chấp nhận được.
Quyết định mang tính trách nhiệm
Trong các vấn đề liên quan đến trí tuệ nhân tạo, có thể khó quyết định ai là người chịu trách nhiệm về các quyết định và hành động của AI.
Sự lựa chọn rõ ràng là lập trình viên hay người viết phần mềm nhưng điều đó dẫn đến rất nhiều câu hỏi và mối quan tâm khác xung quanh bản thân AI và sức mạnh của nó trong xã hội loài người.
Rốt cuộc, một khi trí tuệ nhân tạo và máy học bắt đầu phát triển hệ thống của chúng và trở nên thông minh hơn, thì liệu lập trình viên có còn lỗi không? Liệu ai đó có nên giám sát hoạt động của hệ thống để họ có thể theo dõi quá trình và việc ra quyết định của hệ thống không?
Đây là những câu hỏi vẫn còn rất nhiều khi chúng ta thấy tất cả các cách khác nhau mà trí tuệ nhân tạo đang tác động đến thế giới của chúng ta.
Ngoài việc đánh cắp dữ liệu, tội phạm mạng có thể sử dụng trí tuệ nhân tạo để tấn công các mục tiêu riêng của chúng và gây ra tác hại đáng kể. Tin tặc có thể giành quyền kiểm soát phương tiện tự hành, máy bay không người lái hoặc vũ khí có thể tàn phá mà không cần phải ở gần máy móc mà chúng đang điều khiển.
Điều gì sẽ xảy ra khi AI không cần chúng ta?
Cuối cùng, một số mối quan tâm lớn nhất bắt nguồn từ đạo đức của AI khi nó trở nên thông minh hơn hoặc thông minh hơn con người.
Đó vẫn còn là một chặng đường dài, nhưng nhiều người có mối quan tâm từ việc loại bỏ việc làm cho đến đạo đức về cách chúng ta là con người nên đối xử với AI thông minh như chúng ta.
Suy đoán sẽ chỉ đi xa hơn, vì chúng ta vẫn chưa biết thế giới đó sẽ như thế nào, nhưng điều quan trọng là phải xem xét các khả năng có thể xảy ra.
Đạo đức và trách nhiệm trong phát triển AI
Phó Giáo sư Shah đã xác định rõ ràng, sự khác biệt ngôn ngữ có thể giúp các nhà phát triển miễn trách nhiệm một cách tinh vi sau sự thất bại của một ứng dụng AI: đạo đức và trách nhiệm.
“Tôi muốn cẩn thận về việc không trộn lẫn hai thuật ngữ thường được sử dụng với nhau: ‘có trách nhiệm’ và ‘đạo đức’ khi thảo luận về AI ngày nay. AI có trách nhiệm thường được ưu tiên trong ngành vì nó cho phép họ tiếp tục làm AI và chỉ cần hỏi, làm thế nào họ có thể làm điều đó một cách có trách nhiệm hơn.
Mặt khác, AI có đạo đức đi đến gốc rễ của AI và hỏi chúng ta có nên làm điều đó không? ”
Không có gì đáng ngạc nhiên, nhiều nhà phát triển muốn tránh vấn đề này nếu họ có thể, vì nó có thể ảnh hưởng đến khả năng tiếp tục công việc của họ. Tuy nhiên, khả năng gây hại là rất lớn và các nhà phát triển cần phải đặt đạo đức lên hàng đầu trong tất cả các công việc họ làm.
Tuân theo Quy tắc đạo đức trong trí tuệ nhân tạo
Trong bất kỳ ngành nghề nào, có những tiêu chuẩn đạo đức nhất định mà người ta phải tuân theo để duy trì vị thế tốt. Ví dụ, bác sĩ và y tá có các quy tắc đạo đức của riêng họ đối với việc chăm sóc bệnh nhân.
Điều này rất quan trọng vì các quyết định của họ đôi khi có thể dẫn đến hậu quả sống hoặc chết. Các cố vấn tài chính cũng có những quy tắc đạo đức mà họ phải tuân theo vì công việc của họ ảnh hưởng trực tiếp đến sinh kế của khách hàng.
Theo quan điểm của Shah, các nhà phát triển AI phải tự hỏi mình những câu hỏi khó hơn. Các nhà phát triển AI không bị quản lý chặt chẽ như y tá hoặc cố vấn tài chính, và công việc của họ cho đến nay vẫn chưa được kiểm tra chặt chẽ.
Điều này có nghĩa là họ đã có thể xây dựng công nghệ của mình mà không cần phải giám sát chặt chẽ hoặc để lại hậu quả khi mọi thứ diễn ra không như mong muốn.
Việc tạo ra công nghệ có khả năng gây tác động tiêu cực và cố tình đưa nó ra thế giới để mọi người sử dụng là một vấn đề cực kỳ khó khăn. Những người phớt lờ các tiêu chuẩn đạo đức trong phát triển AI cần phải chịu trách nhiệm về những tác hại mà chúng gây ra.
Những thách thức xung quanh tương lai của trí tuệ nhân tạo
Theo Shah: “Thách thức lớn đầu tiên là sự hiểu biết của chính chúng ta về thế nào là đạo đức. Những cuộc thảo luận này đã diễn ra ít nhất từ thời Socrates. Chúng linh hoạt (liên tục thay đổi theo thời gian), mang tính ngữ cảnh cao (phụ thuộc vào văn hóa, chuẩn mực xã hội) và rất khó để lập bản đồ từ sự hiểu biết khái niệm đến việc triển khai hệ thống.
Ví dụ, một trong những trụ cột của đạo đức trong AI là sự công bằng. Có hàng tá định nghĩa và khái niệm về thế nào là 'công bằng'. Bất kể người ta áp dụng định nghĩa nào, sẽ có nhiều định nghĩa khác khác hoặc thậm chí đi ngược lại với định nghĩa đó.
Khó khăn với trí tuệ nhân tạo là khi cố gắng bắt chước trí thông minh của con người, nó được yêu cầu đưa ra các quyết định có đạo đức. Những quyết định này không mang tính thủ tục và không phải lúc nào cũng có câu trả lời dễ dàng. Trong khi đó nhiều người không thoải mái với ý tưởng máy móc đưa ra các quyết định đạo đức của chúng ta, ngay cả khi công nghệ AI giúp cuộc sống của họ dễ dàng hơn. Chính sách phát triển chậm, trong khi công nghệ phát triển nhanh.
Chúng ta đã quen với sự hiện diện của AI trong cuộc sống của mình, một sự hiện diện ngày càng phát triển. Tuy nhiên, chúng ta không thể bỏ qua những lo ngại về đạo đức và phải đối mặt với chúng để đảm bảo rằng AI phục vụ chúng ta, hay AI lại mang đến một “hiệu ứng rắn hổ mang” khi giải pháp nhằm giải quyết vấn đề lại khiến vấn đề trở nên tồi tệ hơn, một hậu quả không lường trước được.