Chúng ta cần một hóa đơn quyền thuật toán trước khi các thuật toán làm sai

Khi các tập đoàn nhanh chóng tung ra trí tuệ nhân tạo tiên tiến, chúng ta cần phát triển các biện pháp bảo vệ mạnh mẽ có khả năng đáp ứng các rủi ro.
Chúng ta cần một hóa đơn quyền thuật toán trước khi các thuật toán làm sai
[Hình ảnh: Aleksangel / iStock; Iaroslava Kaliuzhna / iStock]
BỞI KARTIK HOSANAGARĐỌC 8 PHÚT
Michael Kearns, một nhà nghiên cứu máy học hàng đầu, gần đây đã đề cập đến một nhóm gồm 60 nhà khoa học đáng kính tại Viện Santa Fe danh tiếng. Chủ đề của ông là sự thiên vị xảo quyệt được xây dựng trong nhiều thuật toán được sử dụng cho các hoạt động nhạy cảm xã hội như tuyên án hình sự và phê duyệt cho vay.

Đó là một phiên bản của một cuộc nói chuyện mà Kearns đã đưa ra trước đó. Nhưng anh không thể làm ngơ trước sự trớ trêu khi thảo luận về những nguy hiểm vốn có trong các công nghệ mới ở nơi đặc biệt này. Viện Santa Fe chỉ cách thị trấn Los Alamos, nơi có Dự án Manhattan, nơi có hơn 6.000 nhà khoa học và nhân viên hỗ trợ làm việc cùng nhau từ năm 1939 đến năm 1945 để chế tạo bom nguyên tử đầu tiên trên thế giới. Tác động cuối cùng của dự án là rất lớn: Khoảng 200.000 người thiệt mạng tại Hiroshima và Nagasaki, và việc giải phóng một mối đe dọa công nghệ mới đã xuất hiện trên nhân loại trong hơn bảy thập kỷ kể từ đó.

Nhìn lại những nhà vật lý tham gia Dự án Manhattan và phản ứng của họ đối với những thách thức xã hội và đạo đức mà công việc của họ đưa ra là một tiền lệ có giá trị. Trong những năm sau vụ đánh bom ở Hiroshima và Nagasaki, nhiều người trong số họ đã công khai nhận trách nhiệm về công việc của mình bằng cách tham gia vào nỗ lực hạn chế sử dụng vũ khí nguyên tử.

Ngày nay, trong thời đại mà các tập đoàn đang nhanh chóng tung ra trí tuệ nhân tạo tiên tiến và máy học, chúng ta nên suy nghĩ về một dự luật về quyền thuật toán sẽ bảo vệ xã hội.

Câu hỏi là liệu có những nỗ lực trước đó có ý nghĩa mà chúng ta có thể xây dựng. May mắn thay, nhiều tổ chức và cá nhân từ chính phủ, đến ngành công nghiệp, đã nghĩ đến những cỗ xe tăng như AI Now tại Đại học New York .

Ngoài ra, các chính phủ từ Liên minh Châu Âu đến Thành phố New York đang đưa ra luật pháp có thể thực thi một số giải pháp này. Chúng tôi đang ở một vị trí để sử dụng một số ý tưởng hữu ích nhất của họ khi chúng tôi xem xét cách phát triển và triển khai các công cụ thuật toán mới.

Dựa trên những gì chúng ta biết về AI và các tác động tiềm năng của nó đối với xã hội, tôi tin rằng nên có bốn trụ cột chính của một dự luật về quyền thuật toán, bao gồm một tập hợp trách nhiệm cho người sử dụng thuật toán ra quyết định.

Đầu tiên, những người sử dụng thuật toán hoặc người bị tác động bởi các quyết định của thuật toán nên có quyền mô tả dữ liệu được sử dụng để huấn luyện chúng và chi tiết về cách thu thập dữ liệu đó.
Thứ hai, những người sử dụng thuật toán hoặc bị tác động bởi các quyết định của thuật toán nên có quyền giải thích về các quy trình được sử dụng bởi các thuật toán, được thể hiện bằng thuật ngữ đủ đơn giản để người bình thường dễ dàng truy cập và giải thích. Hai trụ cột đầu tiên này đều liên quan đến nguyên tắc minh bạch chung.
Thứ ba, những người sử dụng thuật toán hoặc bị tác động bởi các quyết định do thuật toán đưa ra nên có một số mức độ kiểm soát đối với cách thức các thuật toán đó hoạt động, đó là, luôn phải có một vòng phản hồi giữa người dùng và thuật toán.
Thứ tư, những người sử dụng thuật toán hoặc người bị tác động bởi các quyết định của thuật toán nên có trách nhiệm nhận thức được hậu quả không lường trước được của việc ra quyết định tự động.
MINH BẠCH DỮ LIỆU VÀ QUYỀN GIẢI THÍCH
Chúng ta hãy xem xét kỹ hơn về bốn trụ cột này. Chúng ta sẽ bắt đầu bằng cách kiểm tra cách xem xét quyền của người dùng và trách nhiệm của các công ty liên quan đến hai trụ cột đầu tiên: tính minh bạch của dữ liệu và quy trình thuật toán. Để hiểu rõ hơn về hai trụ cột này, hãy xem xét bốn giai đoạn riêng biệt của các thuật toán hiện đại, như được phác thảo bởi các nhà nghiên cứu Nicholas Diakopoulos và Michael Koliska: dữ liệu, mô hình, suy luận và giao diện.

Giai đoạn đầu tiên, dữ liệu, được tạo thành từ các đầu vào cho thuật toán có thể có vấn đề. Vì vậy, một yêu cầu quan trọng được xây dựng trong dự luật về quyền là các công ty phải tiết lộ chi tiết về dữ liệu được sử dụng trong đào tạo thuật toán, bao gồm nguồn, cách lấy mẫu, sử dụng trước, các vấn đề đã biết về độ chính xác của nó và các định nghĩa về tất cả các biến trong tập dữ liệu. Ngoài ra, các công ty nên minh bạch về cách dữ liệu được sửa đổi hoặc làm sạch được trước khi phân tích. (Đây là miền của cái được gọi là xuất xứ dữ liệu trong tài liệu khoa học máy tính.)

Giai đoạn thứ hai, mô hình, đề cập đến chuỗi các bước cho phép thuật toán đưa ra quyết định đưa ra một hoặc nhiều đầu vào. Ví dụ: mô hình cho thuật toán đề xuất chỉ định cách thức tạo đề xuất dựa trên giao dịch mua trước đây của người dùng. Một mô hình phê duyệt cho vay có thể chỉ định các trọng số được gán cho các biến khác nhau, chẳng hạn như thu nhập, trình độ học vấn, điểm tín dụng, v.v. Như chúng ta đã thấy, một chuỗi các bước của thuật toán có thể được lập trình hoàn toàn bởi một con người, hoàn toàn tự học bởi một thuật toán học máy, hoặc một số kết hợp của cả hai.

Dự luật về quyền nên yêu cầu các công ty tiết lộ chi tiết cụ thể về mô hình mà họ đã phát triển. Các biện pháp bảo vệ hợp lý được thiết kế để bảo vệ tài sản trí tuệ của họ sẽ phải được thực hiện. Tuy nhiên, bất kỳ giải pháp nào cũng cần làm rõ các phần của logic được lập trình bởi con người so với tự học và các biến có liên quan được sử dụng bởi mô hình. Điều quan trọng, cần có thể giải thích lý do cho một quyết định ngay cả khi mô hình cơ bản mờ đục, chẳng hạn như trong một mô hình học tập sâu. Nghiên cứu mới nổi về học máy có thể giải thích sẽ đặc biệt quan trọng để đạt được điều này.

Cuối cùng, dự luật sẽ cho phép kiểm toán mã nguồn của thuật toán khi có sự cố xảy ra trong các cài đặt trên nền tảng cao của YouTube như chăm sóc sức khỏe và vận chuyển. Để đảm bảo rằng chúng không trở nên nặng nề, các tiêu chí cho kiểm toán nên được đặt sao cho chúng là ngoại lệ chứ không phải là tiêu chuẩn.

Liên quan:  Làm thế nào để gỡ bức màn ra khỏi các thuật toán của chính phủ ẩn

Giai đoạn thứ ba, suy luận, bao gồm hiểu được thuật toán hoạt động tốt như thế nào trong cả trường hợp điển hình và ngoại lệ. Dự luật về quyền nên yêu cầu các công ty công bố chi tiết về các loại giả định và suy luận mà thuật toán đang thực hiện và các tình huống trong đó các giả định đó có thể thất bại.

Giai đoạn cuối, giao diện, là một phần của đầu ra của thuật toán mà người dùng tương tác trực tiếp nhất. Dự luật về quyền nên yêu cầu các công ty tích hợp thông tin về một thuật toán trực tiếp vào giao diện người dùng. Đơn giản nhất, điều này sẽ liên quan đến việc đơn giản là thông báo cho người dùng rằng trên thực tế, một thuật toán đang được sử dụng. Ngoài ra, giao diện sẽ giúp người dùng dễ dàng tương tác với hệ thống để truy cập thông tin về dữ liệu, mô hình và suy luận. Tính minh bạch liên quan đến bốn giai đoạn này tạo thành hai trụ cột đầu tiên của một dự luật về quyền thuật toán.

LUÔN PHẢI CÓ MỘT VÒNG PHẢN HỒI VỚI NGƯỜI DÙNG VÀ HỌ PHẢI NHẬN THỨC ĐƯỢC NHỮNG RỦI RO
Trụ cột thứ ba là khái niệm về vòng phản hồi, cấp cho người dùng một phương tiện liên lạc để họ có một số mức độ kiểm soát đối với cách thuật toán đưa ra quyết định cho họ. Bản chất của vòng lặp chắc chắn sẽ thay đổi, tùy thuộc vào loại thuật toán được phát triển và các loại tương tác trong thế giới thực mà nó quản lý. Nó có thể bị giới hạn và đơn giản như cung cấp cho người dùng Facebook khả năng gắn cờ một bài đăng tin tức là có khả năng sai; nó có thể kịch tính và có ý nghĩa như để một hành khách can thiệp khi anh ta không hài lòng với những lựa chọn mà một chiếc xe không người lái dường như đang thực hiện.

Trụ cột thứ tư và cuối cùng có lẽ là một trụ cột phức tạp nhất nhưng có lẽ là quan trọng nhất. Nó liên quan đến trách nhiệm của người dùng trong việc nhận thức được rủi ro về hậu quả không lường trước được, và do đó sẽ được người tiêu dùng thông báo và tham gia nhiều hơn vào các hệ thống ra quyết định tự động. Chỉ bằng cách đảm nhận trách nhiệm này, người dùng mới có thể sử dụng đầy đủ các quyền được nêu trong ba trụ cột đầu tiên.

Trong số những nhà khoa học chọn chịu trách nhiệm về những rủi ro do phát minh của họ, ví dụ nổi tiếng nhất có thể là của Albert Einstein. Bức thư năm 1939 của ông gửi cho Franklin D. Roosevelt về tiềm năng của vũ khí nguyên tử đã giúp kích hoạt sự ra mắt của Dự án Manhattan. Einstein đã bị thúc đẩy bởi nỗi sợ rằng Hitler và Đức quốc xã có thể phát triển bom nguyên tử trước tiên, nhưng sau khi nhìn thấy kết quả của nỗ lực mà ông đã giúp châm ngòi, ông đã tràn đầy sự hối tiếc. Tôi biết rằng người Đức sẽ không thành công trong việc chế tạo bom nguyên tử, anh ấy nói, tôi sẽ không bao giờ nhấc một ngón tay.

Einstein sau đó dành thời gian và sức lực để hỗ trợ các nỗ lực kiểm soát vũ khí mà ông đã giúp tạo ra. Trên thực tế, tài liệu công khai cuối cùng mà ông ký, chỉ vài ngày trước khi ông qua đời năm 1955, là Bản tuyên ngôn của Russell-Einstein, một lời kêu gọi hùng hồn để các nhà khoa học hành động vì lợi ích của nhân loại. Được hỗ trợ bởi các nhà khoa học và trí thức đáng chú ý khác như Max Sinh, Frédéric Joliot-Curie, Linus Pauling, và Bertrand Russell, bản tuyên ngôn nêu rõ:

Có nằm trước chúng ta, nếu chúng ta chọn, liên tục tiến bộ trong hạnh phúc, kiến ​​thức và trí tuệ. Thay vào đó, chúng ta sẽ chọn cái chết, bởi vì chúng ta không thể quên những cuộc cãi vã của mình? Chúng tôi hấp dẫn như con người với con người: Hãy nhớ đến con người của bạn và quên đi phần còn lại. Nếu bạn có thể làm như vậy, con đường mở ra một Thiên đường mới; nếu bạn không thể, sẽ có nguy cơ tử vong toàn cầu.

Thách thức đặt ra ngày nay bởi các thuật toán hiện đại có thể không nghiêm trọng như được đưa ra bởi sức mạnh của bom nguyên tử. Nhưng thật khó để không nhìn thấy sự tương đồng về các cơ hội và thách thức mà chúng ta gặp phải liên quan đến chúng.

Như Kearns đã phản ánh về điều này, thông điệp của ông là lời kêu gọi hành động cho các thành viên trong khán giả của mình: Hồi Các nhà khoa học thiết kế các hệ thống này phải đảm nhận việc khắc phục chúng. Kearns đã đúng. Nhưng lời kêu gọi của ông nên được mở rộng ra ngoài các nhà khoa học và công nghệ để bao gồm các nhà lãnh đạo doanh nghiệp, cơ quan quản lý và người dùng cuối. Cùng nhau, chúng ta phải quyết định cách thiết kế, quản lý, sử dụng và điều chỉnh các thuật toán để chúng ta kiểm soát tường thuật về cách các thuật toán tác động đến cuộc sống của chúng ta.

Nhận xét

Bài đăng phổ biến từ blog này

Một đạo luật mang tính bước ngoặt Vermont đẩy lùi hơn 120 nhà môi giới dữ liệu ra khỏi bóng tối

Cách camera 3D tiếp theo của iPhone báo hiệu giai đoạn hai trong cuộc đua AR