Thứ bảy, 17/05/2025
Doanh Nhân Trẻ

Doanh Nhân Trẻ

  • Click để copy

Cân bằng giữa lợi ích và đạo đức khi phát triển AI

Chiến Mạnh
- 20:18, 24/08/2022

(DNTO) - Công nghệ đang cải thiện cuộc sống của chúng ta theo vô số cách khác nhau. Ngày nay, nhờ tự động hóa, chúng ta có nhiều thời gian hơn bao giờ hết để theo đuổi các hoạt động mà chúng ta yêu thích.

Ảnh: governmentciomedia.com

Ảnh: governmentciomedia.com

Trí tuệ nhân tạo (AI) đã đóng một vai trò quan trọng trong việc thúc đẩy tự động hóa phát triển trong những năm gần đây, nó đã tiến vào hầu hết các ngành, từ tiếp thị đến chăm sóc sức khỏe. AI đã tăng hiệu quả và đảm nhận nhiều nhiệm khó khăn mà mọi người không muốn làm.

Nhưng AI là vấn đề gây tranh cãi

Có những mối quan tâm chính đáng về đạo đức đã xuất hiện trong những năm gần đây, và điều quan trọng là phải nhận thức được chúng để chúng ta có thể tìm ra các giải pháp tiềm năng.

Chirag Shah, Phó Giáo sư tại bộ phận Thông tin của Đại học Washington giải thích, những vấn đề này có thể trở nên rất phức tạp về mặt đạo đức: “Trong những năm gần đây, khi các ứng dụng AI phát triển mạnh mẽ trên thế giới, các câu hỏi về điều gì là đạo đức, điều gì hợp pháp và điều gì được xã hội chấp nhận đã bắt đầu xuất hiện - nhiều hơn so với trước đây”.

Yêu cầu chủng tộc hoặc giới tính của ai đó trong đơn xin việc có thể là hợp pháp, nhưng sử dụng thông tin đó để sàng lọc họ có hợp pháp không?

Đây không phải là một câu hỏi hay vấn đề mới, nhưng với mức độ chúng ta đang bắt đầu dựa vào các quy trình tự động (ví dụ: sàng lọc ứng viên, dự đoán ý định phạm tội, quyết định tuyển sinh đại học), những câu hỏi như vậy gợi lại cuộc thảo luận lâu đời về đạo đức.

Dưới đây là một số yếu tố đạo đức mà chúng ta cần xem xét khi AI phát triển hơn nữa.

Thành kiến của AI

Một trong những vấn đề lớn nhất với trí tuệ nhân tạo là thực tế rằng nó không thể hoàn toàn khách quan. AI được phát triển bởi con người và nó có những thành kiến tương tự như chúng ta. Những thành kiến này có thể là không cố ý, nhưng chúng đã dẫn đến một số vấn đề nghiêm trọng.

Một ví dụ về điều này là khi phần mềm được thiết kế để dự đoán hành vi tội phạm, được sử dụng để giúp tòa án trong quá trình ra quyết định của họ, thường không chính xác và thiên vị đối với các cá nhân da màu.

Phần mềm nhận dạng khuôn mặt và các thuật toán tài chính cũng có những thành kiến tương tự. Những thành kiến này có tác động thay đổi cuộc sống đối với mọi người, bao gồm không thể đảm bảo một khoản vay hoặc thậm chí không được ra tù khi đủ điều kiện.

Những trường hợp như thế cho thấy mức độ nguy hiểm khi tin tưởng các hệ thống AI hoàn toàn trung lập. Thừa nhận rằng các hệ thống này giữ thành kiến là bước đầu tiên hướng tới công nghệ công bằng hơn.

Rủi ro về tội phạm mạng và trộm cắp dữ liệu

Chúng ta truy cập, làm việc rất nhiều trên mạng và tin tưởng vào các tổ chức tư nhân khác nhau với dữ liệu cá nhân, nhạy cảm và quan trọng nhất của chúng ta.

Mặc dù dữ liệu này phải được bảo vệ và chủ yếu được lưu trữ để thuận tiện cho việc sử dụng, nhưng hành vi trộm cắp dữ liệu vẫn có thể xảy ra hàng ngày.

Từ EHR (Hồ sơ sức khỏe điện tử) đến thông tin thẻ tín dụng, chúng ta chỉ hy vọng rằng các tổ chức lưu trữ thông tin của chúng ta đã đầu tư vào các biện pháp an ninh mạng tốt.

Vấn đề an toàn vật lý

Các phương tiện tự hành, được hỗ trợ bởi AI đang ra đường. Mặc dù hầu hết họ vẫn yêu cầu tài xế ngồi sau tay lái, nhưng các vụ tai nạn đã xảy ra do "tài xế" sơ suất.

Tuy nhiên, khi các phương tiện tự hành phát triển, sẽ có nhiều lo ngại về an toàn vật lý và các vụ va chạm liên quan đến các câu hỏi đạo đức phức tạp.

An toàn vật lý do lỗi AI cũng có thể là một vấn đề trong cơ sở hạ tầng, khi các thành phố thông minh trở nên phổ biến hơn. Mặc dù không thể tránh tất cả các tai nạn và lỗi công nghệ, nhưng chúng ta sẽ phải quyết định mức độ rủi ro có thể chấp nhận được.

Quyết định mang tính trách nhiệm

Trong các vấn đề liên quan đến trí tuệ nhân tạo, có thể khó quyết định ai là người chịu trách nhiệm về các quyết định và hành động của AI.

Sự lựa chọn rõ ràng là lập trình viên hay người viết phần mềm nhưng điều đó dẫn đến rất nhiều câu hỏi và mối quan tâm khác xung quanh bản thân AI và sức mạnh của nó trong xã hội loài người.

Rốt cuộc, một khi trí tuệ nhân tạo và máy học bắt đầu phát triển hệ thống của chúng và trở nên thông minh hơn, thì liệu lập trình viên có còn lỗi không? Liệu ai đó có nên giám sát hoạt động của hệ thống để họ có thể theo dõi quá trình và việc ra quyết định của hệ thống không?

Đây là những câu hỏi vẫn còn rất nhiều khi chúng ta thấy tất cả các cách khác nhau mà trí tuệ nhân tạo đang tác động đến thế giới của chúng ta.

Ngoài việc đánh cắp dữ liệu, tội phạm mạng có thể sử dụng trí tuệ nhân tạo để tấn công các mục tiêu riêng của chúng và gây ra tác hại đáng kể. Tin tặc có thể giành quyền kiểm soát phương tiện tự hành, máy bay không người lái hoặc vũ khí có thể tàn phá mà không cần phải ở gần máy móc mà chúng đang điều khiển.

Điều gì sẽ xảy ra khi AI không cần chúng ta?

Cuối cùng, một số mối quan tâm lớn nhất bắt nguồn từ đạo đức của AI khi nó trở nên thông minh hơn hoặc thông minh hơn con người.

Đó vẫn còn là một chặng đường dài, nhưng nhiều người có mối quan tâm từ việc loại bỏ việc làm cho đến đạo đức về cách chúng ta là con người nên đối xử với AI thông minh như chúng ta.

Suy đoán sẽ chỉ đi xa hơn, vì chúng ta vẫn chưa biết thế giới đó sẽ như thế nào, nhưng điều quan trọng là phải xem xét các khả năng có thể xảy ra.

Đạo đức và trách nhiệm trong phát triển AI

Phó Giáo sư Shah đã xác định rõ ràng, sự khác biệt ngôn ngữ có thể giúp các nhà phát triển miễn trách nhiệm một cách tinh vi sau sự thất bại của một ứng dụng AI: đạo đức và trách nhiệm.

“Tôi muốn cẩn thận về việc không trộn lẫn hai thuật ngữ thường được sử dụng với nhau: ‘có trách nhiệm’ và ‘đạo đức’ khi thảo luận về AI ngày nay. AI có trách nhiệm thường được ưu tiên trong ngành vì nó cho phép họ tiếp tục làm AI và chỉ cần hỏi, làm thế nào họ có thể làm điều đó một cách có trách nhiệm hơn.

Mặt khác, AI có đạo đức đi đến gốc rễ của AI và hỏi chúng ta có nên làm điều đó không? ”

Không có gì đáng ngạc nhiên, nhiều nhà phát triển muốn tránh vấn đề này nếu họ có thể, vì nó có thể ảnh hưởng đến khả năng tiếp tục công việc của họ. Tuy nhiên, khả năng gây hại là rất lớn và các nhà phát triển cần phải đặt đạo đức lên hàng đầu trong tất cả các công việc họ làm.

Tuân theo Quy tắc đạo đức trong trí tuệ nhân tạo

Trong bất kỳ ngành nghề nào, có những tiêu chuẩn đạo đức nhất định mà người ta phải tuân theo để duy trì vị thế tốt. Ví dụ, bác sĩ và y tá có các quy tắc đạo đức của riêng họ đối với việc chăm sóc bệnh nhân.

Điều này rất quan trọng vì các quyết định của họ đôi khi có thể dẫn đến hậu quả sống hoặc chết. Các cố vấn tài chính cũng có những quy tắc đạo đức mà họ phải tuân theo vì công việc của họ ảnh hưởng trực tiếp đến sinh kế của khách hàng.

Theo quan điểm của Shah, các nhà phát triển AI phải tự hỏi mình những câu hỏi khó hơn. Các nhà phát triển AI không bị quản lý chặt chẽ như y tá hoặc cố vấn tài chính, và công việc của họ cho đến nay vẫn chưa được kiểm tra chặt chẽ.

Điều này có nghĩa là họ đã có thể xây dựng công nghệ của mình mà không cần phải giám sát chặt chẽ hoặc để lại hậu quả khi mọi thứ diễn ra không như mong muốn.

Việc tạo ra công nghệ có khả năng gây tác động tiêu cực và cố tình đưa nó ra thế giới để mọi người sử dụng là một vấn đề cực kỳ khó khăn. Những người phớt lờ các tiêu chuẩn đạo đức trong phát triển AI cần phải chịu trách nhiệm về những tác hại mà chúng gây ra.

Những thách thức xung quanh tương lai của trí tuệ nhân tạo

Theo Shah: “Thách thức lớn đầu tiên là sự hiểu biết của chính chúng ta về thế nào là đạo đức. Những cuộc thảo luận này đã diễn ra ít nhất từ thời Socrates. Chúng linh hoạt (liên tục thay đổi theo thời gian), mang tính ngữ cảnh cao (phụ thuộc vào văn hóa, chuẩn mực xã hội) và rất khó để lập bản đồ từ sự hiểu biết khái niệm đến việc triển khai hệ thống.

Ví dụ, một trong những trụ cột của đạo đức trong AI là sự công bằng. Có hàng tá định nghĩa và khái niệm về thế nào là 'công bằng'. Bất kể người ta áp dụng định nghĩa nào, sẽ có nhiều định nghĩa khác khác hoặc thậm chí đi ngược lại với định nghĩa đó.

Khó khăn với trí tuệ nhân tạo là khi cố gắng bắt chước trí thông minh của con người, nó được yêu cầu đưa ra các quyết định có đạo đức. Những quyết định này không mang tính thủ tục và không phải lúc nào cũng có câu trả lời dễ dàng. Trong khi đó nhiều người không thoải mái với ý tưởng máy móc đưa ra các quyết định đạo đức của chúng ta, ngay cả khi công nghệ AI giúp cuộc sống của họ dễ dàng hơn. Chính sách phát triển chậm, trong khi công nghệ phát triển nhanh.

Chúng ta đã quen với sự hiện diện của AI trong cuộc sống của mình, một sự hiện diện ngày càng phát triển. Tuy nhiên, chúng ta không thể bỏ qua những lo ngại về đạo đức và phải đối mặt với chúng để đảm bảo rằng AI phục vụ chúng ta, hay AI lại mang đến một “hiệu ứng rắn hổ mang” khi giải pháp nhằm giải quyết vấn đề lại khiến vấn đề trở nên tồi tệ hơn, một hậu quả không lường trước được.

Tin khác

An toàn thông tin
Thị trường thương mại điện tử Việt Nam đang phát triển mạnh mẽ với hơn 60 triệu người dùng thường xuyên, doanh thu năm 2024 ước tính vượt 20 tỷ USD. Tuy nhiên, sự bùng nổ này cũng kéo theo áp lực lớn cho nhà bán hàng, đặc biệt là vấn nạn hoàn trả hàng gian lận đang ngày càng phổ biến.
3 ngày
An toàn thông tin
Đây là khoá học về đạo đức AI đầu tiên tại Việt Nam đề cập đến chuẩn mực đạo đức và khung pháp lý trong phát triển AI, hướng tới xây dựng nguồn nhân lực phát triển AI có trách nhiệm cho Việt Nam.
5 ngày
Công nghệ Số hóa
Năm 2025 được dự đoán là năm nhiều biến động và căng thẳng địa chính trị. Tuy nhiên, chuyển đổi số có thể là phương thức giúp thay đổi “luật chơi” để Việt Nam đón kỷ nguyên mới.
3 tuần
Đồng hành cùng doanh nghiệp
Ngày 15/4, Công ty cổ phần công nghệ chống giả Việt Nam (ACTIV) và Techfest Việt Nam phối hợp tổ chức Hội thảo "Truy xuất nguồn gốc sản phẩm, hàng hóa trong chương trình chuyển đổi số quốc gia".
1 tháng
Công nghệ Số hóa
Dự thảo Luật Khoa học, công nghệ và đổi mới sáng tạo đưa ra tiêu chí Nhà nước xác định nhân tài trong lĩnh vực khoa học, công nghệ và đổi mới sáng tạo và nhấn mạnh việc có chính sách đãi ngộ đặc biệt đối với nhân tài trong lĩnh vực này.
1 tháng
Công nghệ Số hóa
Bộ Tài chính vừa đưa ra cảnh báo trang facebook có tên “Tiếp nhận Xử lý Thu hồi và Hoàn Trả Vốn Treo” sử dụng hình ảnh và thông tin của Bộ Tài chính, tự nhận là đại diện Bộ Tài chính là giả mạo.
1 tháng
Thời sự - Chính trị
Nhà máy Intel tại Việt Nam sẽ chạm mốc 4 tỷ sản phẩm xuất xưởng vào tháng tư, một dấu ấn khẳng định vai trò của nhà máy lắp ráp và kiểm định của Intel tại Việt Nam trong chuỗi vận hành toàn cầu.
1 tháng
Chuyển đổi số
Tuy nhiên, theo nhà khoa học AI hàng đầu của Meta, Yann LeCun, việc mở rộng quy mô các mô hình ngôn ngữ lớn (LLM) hiện tại không đủ để đạt đến “AI ở cấp độ con người”.
1 tháng
Xu thế
Nếu bạn muốn trở thành một nhà sáng tạo thực thụ, hãy bắt đầu từ tư duy của chính mình. Khi bạn rèn luyện tư duy sáng tạo, hiểu rõ phong cách của mình và biết cách sử dụng AI như một trợ thủ, bạn sẽ làm chủ được công nghệ thay vì bị nó dẫn dắt.
1 tháng
Chuyển đổi số
AI là một thanh kiếm sắc bén, nhưng không phải ai cũng biết cách sử dụng. Nếu bạn biết làm chủ nó, AI sẽ giúp nâng tầm sáng tạo. Nhưng nếu bạn để AI quyết định thay bạn, thì bạn không còn là nhà sáng tạo nữa – bạn chỉ đơn thuần là người vận hành công cụ.
1 tháng
Thời sự - Chính trị
Bối cảnh tài chính của Hiệp hội các quốc gia Đông Nam Á (ASEAN) đang thay đổi nhờ sự phát triển nhanh chóng của công nghệ tài chính (fintech).
1 tháng
An toàn thông tin
Trong một bước đi chiến lược nhằm tăng cường khả năng bảo mật cho Google Cloud, Alphabet đã chính thức mua lại Wiz – startup an ninh mạng nổi bật với công nghệ trí tuệ nhân tạo, với mức giá kỷ lục 32 tỷ USD. Tuy nhiên, thương vụ này cũng đặt ra không ít thách thức pháp lý và tài chính, phản ánh sự táo bạo trong chiến lược dài hạn của Alphabet.
1 tháng
Công nghệ Số hóa
Thủ tướng Phạm Minh Chính nhấn mạnh, thời gian qua, phát triển khoa học, công nghệ, đổi mới sáng tạo, chuyển đổi số, đề án 06 và cải cách hành chính đã và đang được Chính phủ triển khai tích cực.
1 tháng
Chuyển đổi số
Đông Nam Á đang ở thời điểm quan trọng của quá trình công nghiệp hóa AI. Đầu tư cơ sở hạ tầng của những "gã khổng lồ" công nghệ đã trở thành động lực mới cho phát triển kinh tế của khu vực.
2 tháng
Công nghệ Số hóa
TP.HCM đặt mục tiêu đến năm 2030, kinh phí chi cho nghiên cứu phát triển (R&D) đạt 2% GRDP; bố trí ít nhất 3% tổng chi ngân sách hằng năm cho phát triển khoa học, công nghệ, đổi mới sáng tạo, chuyển đổi số và tăng dần theo yêu cầu phát triển.
2 tháng
Xem thêm