Trang chủ Công nghệ Trí tuệ nhân tạo - AI Elon Musk đã sa thải nhóm ‘AI đạo đức’ của Twitter

Elon Musk đã sa thải nhóm ‘AI đạo đức’ của Twitter

0

Khi ngày càng có nhiều vấn đề liên quan đến AI xuất hiện, bao gồm cả sự thiên vị về chủng tộc, giới tính và tuổi tác, nhiều công ty công nghệ đã thành lập các nhóm “AI có đạo đức” với mục đích chính là xác định và giảm thiểu các vấn đề như vậy.

Đơn vị META của Twitter tiến bộ hơn hầu hết các đơn vị khác trong việc công bố thông tin chi tiết về các vấn đề liên quan đến hệ thống AI của công ty và cho phép các nhà nghiên cứu bên ngoài thăm dò các thuật toán của công ty để tìm ra các vấn đề mới.

Năm ngoái, sau khi người dùng Twitter nhận thấy thuật toán cắt ảnh có vẻ thiên vị khuôn mặt người da trắng khi chọn cách cắt ảnh, Twitter đã đưa ra quyết định bất thường là để đơn vị META của mình công bố chi tiết về sự thiên vị mà họ phát hiện ra. Nhóm này cũng đã phát động một trong những cuộc thi “tiền thưởng thiên vị” đầu tiên, cho phép các nhà nghiên cứu bên ngoài kiểm tra thuật toán để tìm ra các vấn đề khác. Tháng 10 năm ngoái, nhóm của Chowdhury cũng đã công bố chi tiết về sự thiên vị chính trị vô tình trên Twitter, cho thấy các nguồn tin tức thiên hữu thực tế được quảng bá nhiều hơn các nguồn tin thiên tả.

Nhiều nhà nghiên cứu bên ngoài coi việc sa thải là một đòn giáng, không chỉ đối với Twitter mà còn đối với những nỗ lực cải thiện AI. “Thật là một thảm kịch”, Kate Starbird, phó giáo sư tại Đại học Washington, người nghiên cứu về thông tin sai lệch trực tuyến, đã viết trên Twitter.

Nội dung X

Nội dung này cũng có thể được xem trên trang web có nguồn gốc từ.

Ali Alkhatib, giám đốc Trung tâm Đạo đức Dữ liệu Ứng dụng tại Đại học San Francisco, cho biết: “Nhóm META là một trong số ít trường hợp nghiên cứu điển hình về một công ty công nghệ điều hành nhóm đạo đức AI tương tác với công chúng và giới học thuật với độ tin cậy đáng kể”.

Alkhatib cho biết Chowdhury được đánh giá rất cao trong cộng đồng đạo đức AI và nhóm của cô đã thực sự có giá trị trong việc yêu cầu Big Tech chịu trách nhiệm. “Không có nhiều nhóm đạo đức doanh nghiệp đáng để coi trọng”, ông nói. “Đây là một trong những nhóm mà tôi đã giảng dạy trong lớp học”.

Mark Riedl, một giáo sư nghiên cứu AI tại Georgia Tech, cho biết các thuật toán mà Twitter và các gã khổng lồ truyền thông xã hội khác sử dụng có tác động rất lớn đến cuộc sống của mọi người và cần phải được nghiên cứu. “Liệu META có tác động gì bên trong Twitter hay không thì khó có thể nhận ra từ bên ngoài, nhưng lời hứa thì có”, ông nói.

Riedl nói thêm rằng việc để những người bên ngoài thăm dò các thuật toán của Twitter là một bước quan trọng hướng tới sự minh bạch hơn và hiểu biết hơn về các vấn đề liên quan đến AI. “Họ đang trở thành một người giám sát có thể giúp phần còn lại của chúng ta hiểu AI đang ảnh hưởng đến chúng ta như thế nào”, ông nói. “Các nhà nghiên cứu tại META có các chứng chỉ nổi bật với lịch sử lâu dài trong việc nghiên cứu AI vì lợi ích xã hội”.

Đối với ý tưởng của Musk về việc mở nguồn thuật toán Twitter, thực tế sẽ phức tạp hơn nhiều. Có nhiều thuật toán khác nhau ảnh hưởng đến cách thông tin được hiển thị và rất khó để hiểu chúng nếu không có dữ liệu thời gian thực mà chúng được cung cấp dưới dạng tweet, lượt xem và lượt thích.

Ý tưởng rằng có một thuật toán có khuynh hướng chính trị rõ ràng có thể đơn giản hóa quá mức một hệ thống có thể chứa nhiều thành kiến ​​và vấn đề nguy hiểm hơn. Việc khám phá những điều này chính xác là loại công việc mà nhóm META của Twitter đang thực hiện. “Không có nhiều nhóm nghiên cứu nghiêm ngặt về thành kiến ​​và lỗi của thuật toán của riêng họ”, Alkhatib tại Đại học San Francisco cho biết. “META đã làm điều đó”. Và bây giờ, họ không làm vậy nữa.


Source link

0 BÌNH LUẬN

ĐỂ LẠI BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Exit mobile version