Google và đạo đức phát triển AI

Thứ 4, 03.02.2021 | 00:00:00
429 lượt xem

Alphabet, công ty mẹ của Google, đang bị nhiều nhà khoa học cáo buộc triển khai công nghệ AI một cách thiếu trách nhiệm và bất chấp hậu quả.

Sundar Pichai, CEO của Alphabet, từng nhấn mạnh vai trò trụ cột của công nghệ AI trong quá trình định hình tương lai công ty. "Gã khổng lồ" này trong nhiều năm qua đã đánh cược lớn vào các nghiên cứu AI khi đầu tư hàng tỷ USD nhằm mang công nghệ này lên các sản phẩm của hãng nhanh nhất có thể.

Công nghệ AI của Google bị cho là có thể làm trầm trọng thành kiến về giới tính và chủng tộc. Ảnh: AP

Công nghệ AI của Google bị cho là có thể làm trầm trọng thành kiến về giới tính và chủng tộc. Ảnh: AP

Tuy nhiên trong hơn 18 tháng qua, công ty mẹ của Google vướng phải hàng loạt lùm xùm liên quan tới các nhà nghiên cứu có tiếng trong lĩnh vực trí tuệ nhân tạo. Mới nhất, chuyên gia AI nổi tiếng Timnit Gebru bị công ty này sa thải sau khi công bố nhiều tài liệu nghiên cứu liên quan tới cách tiếp cận công nghệ của Google. Timnit Gebru kết luận Google triển khai công nghệ AI rất nóng vội và xem nhẹ tác động môi trường gây ra trong quá trình xây dựng các cơ sở siêu máy tính.

Sau đó, CEO Pichai cam kết sẽ điều tra rõ ràng lý do Gebru bị đuổi việc và cho biết sẽ tìm cách để khôi phục lòng tin của các chuyên gia. Trong khi đó, Jeff Dean, Phó chủ tịch cấp cao Google, cho rằng nghiên cứu của cô dẫn ra một số lo ngại đã lỗi thời, quá tập trung chỉ trích những tác hại tiềm ẩn của AI mà không nhận ra các chuyên gia đang nỗ lực giải quyết vấn đề.

Dù vậy, Gebru vẫn nhận được sự ủng hộ từ nhiều đồng nghiệp trong lĩnh vực. Từ cuối tháng 12 năm ngoái, gần 2.700 nhân viên của Google ký một bức thư công khai nói sự ra đi của Gebru "báo hiệu mối đe dọa nhắm tới những người làm nghiên cứu đạo đức AI, đặc biệt là cộng đồng người da màu ở Google".

Google tuần trước cũng tuyên bố đang điều tra việc Giám đốc bộ phận đạo đức AI Margaret Mitchell bị sa thải vì các cáo buộc phát tán tài liệu nội bộ. Mitchell từng nhiều lần đăng bài trên Twitter chỉ trích CEO Pichai về cách thức xử lý các vấn đề liên quan tới đa dạng trong môi trường làm việc.

Phương pháp tiếp cận công nghệ của Google được giới chuyên gia đặc biệt quan tâm bởi hãng là một trong những tổ chức tư nhân tài trợ nhiều nhất cho các lĩnh vực nghiên cứu AI. Chính nhờ những thành quả từ các nghiên cứu này, Google đã phát triển nên vô số các sản phẩm mới từ loa thông minh tới trợ lý ảo. Tuy nhiên, vị thế thống trị của hãng trong lĩnh vực AI cũng dấy lên lo ngại xung quanh ảnh hưởng của các thuật toán máy tính tới cuộc sống con người.

Google từ lâu đã luôn coi mình là người thiết lập tiêu chuẩn cho AI có đạo đức. "Lịch sử từng chứng kiến rất nhiều ví dụ liên quan đến các ảnh hưởng tiêu cực khi công nghệ bị sử dụng sai mục đích. Trong khi AI hứa hẹn mang lại những lợi ích to lớn cho châu Âu và thế giới, chúng ta vẫn nên xem xét thật kỹ càng về những hậu quả tiềm tàng nó có thể gây ra", Pichai từng phát biểu tại một hội nghị tổ chức ở Brussels, Bỉ.

Vấn đề của DeepMind

Ngoài những thách thức trong nội bộ, các công ty do hãng này thâu tóm cũng gặp phải vấn đề tương tự. Theo một báo cáo vừa được công bố, Mustafa Suleyman, người đồng sáng lập DeepMind, đã bị tước bỏ hầu hết các quyền quản lý vào cuối năm 2019 sau khi Google nhận được nhiều đơn khiếu nại, cáo buộc rằng ông có hành vi bắt nạt nhân viên.

DeepMind, được Google mua lại vào năm 2014, trước đó đã thuê một công ty luật bên ngoài nhằm tiến hành điều tra độc lập các khiếu nại. Vào cuối năm 2019, Suleyman đã được chuyển sang một vai trò điều hành khác trong nhóm AI tại Google.

DeepMind và Google, trong một tuyên bố chung, xác nhận về cuộc điều tra liên quan tới hành vi của Suleyman, tuy nhiên từ chối cho biết họ đã tìm thấy gì. Tuyên bố chỉ nêu, từ kết quả của cuộc điều tra, ông Suleyman sẽ phải "trải qua quá trình đào tạo lại chuyên môn để giải quyết vấn đề quan tâm. Ông có thể tiếp tục làm việc nhưng không được quản lý các đội lớn". DeepMind cho biết với vai trò là phó chủ tịch phụ trách chính sách trí tuệ nhân tạo, "Suleyman đã đóng góp có giá trị về chính sách và quy định AI".

Trả lời câu hỏi của Wall Street Journal, Suleyman cho biết: "Tôi chấp nhận kết quả của cuộc điều tra. Với tư cách là đồng sáng lập tại DeepMind, tôi đã thúc ép mọi người quá gắt gao và đôi khi phong cách quản lý của tôi không mang tính xây dựng. Tôi thành thật xin lỗi những người bị ảnh hưởng".

Khác với mục đích sử dụng AI để tìm kiếm của Google, DeepMind tập trung chủ yếu vào lợi ích của AI trong các vấn đề sức khỏe, chẳng hạn thu thập dữ liệu bệnh nhân nhằm tìm ra những cách điều trị bệnh mới. Theo báo cáo tài chính năm 2019, DeepMind lỗ 649 triệu USD, tuy nhiên, cũng nhận được hơn 1 tỷ USD từ Google trong cùng thời gian.

Với khoản đầu tư lớn như vậy, Google phải có một hội đồng đánh giá độc lập DeepMind nhằm giám sát các dự án trí tuệ nhân tạo của công ty này. Tuy nhiên, đến cuối năm 2018, hội đồng này bị giải tán sau khi các thành viên phàn nàn rằng họ không được tiếp cận đầy đủ các kế hoạch chiến lược và nghiên cứu của DeepMind.

Vài tháng sau, một hội đồng đạo đức AI do Google thành lập cũng bị giải tán, sau khi xuất hiện hàng loạt kiến nghị và phản đối của nhân viên về các thành viên trong hội đồng.

Nghiên cứu AI có nhiều "cạm bẫy"

Kể từ năm 2017, phòng nghiên cứu AI đã trở thành một bộ phận độc lập với Google và điều hành bởi Jeff Dean. Khi công bố thông báo tái cấu trúc này, ông Pichai cho biết AI sẽ là trọng tâm chiến lược của công ty, với máy học được áp dụng trong mọi sản phẩm sắp tới.

Pedro Domingos, giáo sư ngành khoa học máy tính của Đại học Washington, cho biết Google đã nhận thức được rất nhiều cạm bẫy liên quan đến AI. Chủ tịch hội đồng quản trị Alphabet, John Hennessy, từng công khai bày tỏ mối lo ngại khi gã khổng lồ tìm kiếm tăng cường đẩy mạnh đầu tư cho lĩnh vực này.

Ông Hennessy nói: "Nếu có bất cứ điều gì sai trái với AI, ngay cả khi nó ở các công ty khác, Google vẫn phải chịu trách nhiệm. Chúng ta chỉ cần sơ sẩy một chút là có thể biến mọi thứ thành thảm họa".

John Hennessy từng cảnh báo những hậu quả tiềm ẩn của AI. Ảnh: CNBC.

John Hennessy từng cảnh báo những hậu quả tiềm ẩn của AI. Ảnh: CNBC.

Sai lầm đầu tiên xảy đến vào năm 2015, khi một số người dùng gốc Phi phát hiện ra công nghệ trí tuệ nhân tạo trong phần mềm chụp ảnh của Google đã tự động gắn nhãn ảnh họ là "khỉ đột" dựa trên màu da.

Google đã xin lỗi và khắc phục sự cố, đồng thời cam kết sẽ xây dựng các biện pháp bảo vệ nội bộ nhằm đảm bảo phần mềm của họ được lập trình một cách có đạo đức.

Giáo sư Domingos cho biết hầu hết các vấn đề liên quan tới AI của Google đều bắt nguồn từ cách tiếp cận của công ty đối với cách quản lý nhân viên, đồng thời khẳng định khoa học chứ không phải hệ tư tưởng nên dẫn dắt các cuộc tranh luận về đạo đức.

Ông nói: "Google là một công ty siêu chiều chuộng nhân viên. Các chuyên gia ở đây được tự do tới mức họ cảm thấy được quyền đưa ra ngày càng nhiều yêu cầu hơn về cách tiếp cận AI".

Tuy nhiên, theo Reuters, nguồn tin nội bộ cho biết Google đang bắt đầu thắt chặt kiểm duyệt những bài nghiên cứu của nhân viên. Chính sách mới của Google yêu cầu nhân viên tiếp cận các vấn đề AI chủng tộc, giới tính và chính trị theo hướng tích cực.


Đăng Thiên/vnexpress.net

https://vnexpress.net/google-va-dao-duc-phat-trien-ai-4230106.html

  • Từ khóa