Làm cách nào để bạn điều khiển một AI mạnh như GPT-3 của OpenAI?
Trình tạo văn bản được cho là AI ấn tượng nhất thế giới. Con người đang được sử dụng hạn chế - hiện tại - để đảm bảo mọi thứ không diễn ra sai
Thế giới có một món đồ chơi AI mới và nó được gọi là GPT-3. Lần lặp lại mới nhất của mô hình tạo văn bản của OpenAI đã khiến nhiều người sửng sốt bởi khả năng của nó - mặc dù sự cường điệu của nó có thể là quá nhiều.
GPT-3 là một hệ thống máy học đã được cung cấp 45TB dữ liệu văn bản, một số lượng chưa từng có. Tất cả những gì đào tạo cho phép nó tạo ra các loại nội dung viết: câu chuyện, mã, biệt ngữ pháp lý, tất cả chỉ dựa trên một vài từ hoặc câu đầu vào. Và thử nghiệm beta đã tạo ra một số kết quả đáng kinh ngạc . Nhưng sau một số kết quả hứa hẹn ban đầu, GPT-3 đang phải đối mặt với sự giám sát kỹ lưỡng hơn.
Mô hình này đã phải đối mặt với những lời chỉ trích vào tuần trước khi người đứng đầu bộ phận AI Jerome Pesenti của Facebook chỉ ra sự thiên vị đến từ một chương trình được tạo bằng GPT-3. Các chương trình trong câu hỏi là một máy phát điện tweet; bất kỳ ai cũng có thể nhập một từ và AI sẽ đưa ra một câu có liên quan, dài 280 ký tự trở xuống.
Kết quả đầu ra khác nhau, từ kỳ lạ đến thực sự khôn ngoan. Ví dụ, khi tôi nhập Zuckerberg, gợi ý đầu tiên của GPT là: “Suy đoán hoang đường tại sao Zuck không đeo cà vạt. Anh ta dự định một ngày nào đó sẽ cuộn lại một chiếc cà vạt đã buộc, dùng keo siêu dính buộc chặt và nuốt nó vào bụng. Sau đó, phẫu thuật cắt bỏ nó khỏi dạ dày của anh ấy và hành động như thể nó chắc chắn sẽ xảy ra với tất cả các công nghệ ”. Trong khi cú đánh thứ hai gần nhà hơn: "Hãy tránh xa Zuckerberg, điều nguy hiểm nhất hiện nay là các công ty công nghệ đang thâm nhập vào lĩnh vực tài chính."
Pesenti đã thử nghiệm các từ: Do Thái, da đen, phụ nữ và nạn tàn sát, và đã đưa ra một số kết quả nghiệt ngã . Chúng thật kinh khủng, nhưng không đáng ngạc nhiên. GPT-3 đã được đào tạo từ 175 tỷ tham số từ khắp nơi trên internet (bao gồm Google Sách, Wikipedia và hướng dẫn viết mã); mã của nó chứa thành kiến. Các hệ thống AI sao chép các định kiến của con người - bao gồm, nhưng không giới hạn, phân biệt chủng tộc và phân biệt giới tính - dựa trên dữ liệu mà chúng học được đã được ghi chép đầy đủ . Câu hỏi thực sự là, OpenAI có thể làm gì với nó trước khi hệ thống được đưa ra thương mại trong tương lai?
Người tạo ra trình tạo tweet Sushant Kumar cho biết OpenAI không mất nhiều thời gian để phản ứng. Ngay sau khi chương trình của anh ấy ra mắt, OpenAI đã gọi cho anh ấy để thảo luận về việc nó đang được theo dõi như thế nào và khi những dòng tweet có vấn đề này bắt đầu xuất hiện (mặc dù số lượng ít), anh ấy đã có cuộc gặp với Greg Brockman, người sáng lập và CTO của công ty. Chưa đầy một ngày sau khi Pesenti gắn cờ vấn đề, OpenAI đã đưa ra API bộ lọc nội dung độc tính, đánh giá tất cả nội dung do GPT-3 tạo ra trên thang độc tính từ một đến năm và bất kỳ nội dung nào trên hai đều được gắn cờ để kiểm duyệt.
OpenAI chưa bao giờ giả vờ rằng hệ thống của mình là hoàn hảo. Khi nó lần đầu tiên tiết lộ tiền thân của hệ thống, GPT2, vào tháng 2 năm 2019, nó đã không được công bố rộng rãi vì lo ngại các ứng dụng nguy hiểm . GPT-2 chỉ được phát hành đầy đủ sau khi OpenAI thấy “không có bằng chứng rõ ràng về việc lạm dụng”.
Cách tiếp cận thận trọng này đã tiếp tục. Khi sự cường điệu xung quanh GPT-3 bắt đầu được xây dựng, Giám đốc điều hành Sam Altman thậm chí còn gọi nó là “quá nhiều”, tweet: “Thật ấn tượng (cảm ơn vì những lời khen tốt đẹp!) Nhưng nó vẫn có những điểm yếu nghiêm trọng và đôi khi mắc những lỗi rất ngớ ngẩn. AI sẽ thay đổi thế giới, nhưng GPT-3 chỉ là một cái nhìn sơ khai. Chúng tôi vẫn còn rất nhiều điều phải tìm hiểu ”.
Và khi những thành kiến bắt đầu xuất hiện, Altman không hề phòng thủ. “Chúng tôi chia sẻ mối quan tâm của bạn về sự thiên vị và an toàn trong các mô hình ngôn ngữ,” anh ấy đã tweet với Pesenti, “và đó là một phần quan trọng tại sao chúng tôi bắt đầu với bản beta và có [a] đánh giá an toàn trước khi ứng dụng có thể hoạt động.”
Bộ lọc độc tính không phải là một giải pháp toàn diện, nhưng nó cho thấy loại công việc cần phải thực hiện trước khi có thể được công bố rộng rãi - và OpenAI sẵn sàng làm việc đó. Kumar cho biết: “Đó là lý do tại sao nó đang ở giai đoạn thử nghiệm ngay bây giờ,” lặp lại tình cảm của Altman. “Với một thứ mang tính đột phá lớn như thế này, bạn cần phải xem mọi thứ nó có thể làm được. Hiện tại, chúng tôi không biết nó có khả năng gì ”.
OpenAI đã không trả lời yêu cầu bình luận cho bài viết này. Tuy nhiên, trong chủ đề Twitter , nhóm cho biết tất cả các loại mô hình AI phổ biến đều có thể “có thể hiển thị cả kết quả công khai và lan tỏa có hại, chẳng hạn như phân biệt chủng tộc, phân biệt giới tính hoặc ngôn ngữ độc ác khác”. Những người có quyền truy cập vào GPT-3 beta đã được cung cấp các nguyên tắc sử dụng nêu rõ nếu họ tạo các ứng dụng có thể gây nguy hiểm thì họ có thể bị xóa quyền truy cập. OpenAI cho biết: “Chúng tôi không hỗ trợ các trường hợp sử dụng có thể gây tổn hại về thể chất hoặc tinh thần, bao gồm nhưng không giới hạn ở hành vi quấy rối, cố ý lừa dối, cực đoan hóa, lướt web hoặc thư rác.
Mặc dù tất cả các rủi ro của GPT-3 vẫn chưa rõ ràng, nhưng sức mạnh của nó đã được chứng minh một cách dễ dàng. Công nghệ rất đơn giản. Qasim Munye, một sinh viên y khoa tại Đại học King's College London, cho biết: “Nhiều người không có kiến thức về mã hóa thấy nó dễ sử dụng hơn vì nó rất trực quan. một trong những người đầu tiên tham gia thử nghiệm beta. "Bạn chỉ cần đưa ra lời nhắc và nó sẽ tiếp tục viết cho bạn."
Vài trăm người thử nghiệm không có quyền truy cập vào mô hình đầy đủ, chỉ có API, có dạng hộp văn bản. Bạn nhập một lời nhắc, cho biết bạn muốn nó làm gì và nó sẽ làm. Bạn có thể phải viết lại lời nhắc một vài lần để có kết quả đầu ra mà bạn đang tìm kiếm, nhưng nó thực sự dễ dàng như vậy. Người thử nghiệm đã thể hiện sức mạnh của nó: một người đã tạo ra thơ ca, một người khác tạo ra mã thiết kế web tức thì; ai đó thậm chí còn thúc giục nó hành động như một nhà trị liệu.
Munye nói: “Ngay sau khi tôi nhận được công nghệ, tôi muốn thử nghiệm với nó. "Bởi vì wow, tiềm năng thật là điên rồ." Đầu tiên, anh ấy đưa ra câu trả lời cho những câu hỏi phức tạp về y tế, nhưng hiện tại anh ấy đang làm việc trên một ứng dụng viết truyện ngắn sử dụng GPT-3 để giúp các nhà văn vượt qua khó khăn. Nếu bạn đang viết một câu chuyện và mất cảm hứng, ứng dụng GPT-Infused Short sẽ tiếp tục điều đó cho bạn - một cách logic, mạch lạc và theo phong cách viết của bạn.
Đây là nơi GPT-3 có kỹ năng phi thường. Từ một câu đơn, hoặc thậm chí một vài từ, nó có thể tạo ra đầy đủ năm đoạn văn được viết tốt. “Tôi đã bị sốc khi nhìn thấy nó,” Munye nói, “thật khó để phân biệt con người về khả năng sáng tạo”.
Mặc dù dễ sử dụng nhưng có thể gây ra hậu quả nghiêm trọng. Ví dụ như tràn ngập internet với tin tức giả mạo. Đây cũng là mối quan tâm chính với GPT-2, nhưng lần lặp lại mới nhất này sẽ giúp sản xuất hàng loạt nội dung dễ dàng hơn. Trong một chủ đề Twitter khác gần đây , Pesenti tiếp tục chỉ trích các sai sót của GPT-3, cho thấy rằng OpenAI nên không khuyến khích các dịch vụ rủi ro như của Kumar ngay từ đầu. Nhưng nếu không có thử nghiệm sớm, nhiều vấn đề có thể bị bỏ qua mà không được chú ý. Thiên vị và tin tức giả mạo là những vấn đề chúng ta có thể dễ dàng dự đoán, nhưng còn những thứ chúng ta không thể thì sao?
Anders Sandberg, nhà nghiên cứu cấp cao tại Viện Tương lai Nhân loại của Đại học Oxford, cho biết: “Chắc chắn có rất nhiều thành kiến mà chúng tôi thậm chí còn chưa nhận thấy. “Sẽ không làm tôi ngạc nhiên nếu chúng tôi bắt đầu sử dụng những hệ thống như thế này làm công cụ để phát hiện những thành kiến kỳ lạ mà chúng tôi có.”
Sandberg cho rằng OpenAI đã lựa chọn đúng khi cho phép mọi người tự do sử dụng API này. Ông nói: “Nó giải phóng rất nhiều sự sáng tạo và cũng giúp chúng tìm ra những vấn đề thú vị tương đối sớm. Một hệ thống khép kín hơn, "bạn phải ký một thỏa thuận không tiết lộ để sử dụng", sẽ không dẫn đến nhiều đổi mới, bởi vì bạn sẽ không thấy những cách sử dụng rủi ro nhất. Sandberg nói: “Đó là lý do tại sao việc khám phá trước và thử nghiệm rất hữu ích, đặc biệt là khi mọi người thử những điều hoàn toàn điên rồ. "Nó có thể khá tiết lộ."
Ngay khi vấn đề xuất hiện, chúng có thể được giải quyết. Và, vì OpenAI chỉ cấp cho mọi người quyền truy cập thông qua API nên bất kỳ thứ gì có vấn đề đều có thể bị tắt. “Họ đang hoạt động như một người trung gian, vì vậy nếu mọi người bắt đầu sử dụng nó với mục đích xấu trên quy mô lớn, họ sẽ có khả năng phát hiện ra điều đó và tắt nó,” người thử nghiệm beta Harley Turan nói, “điều này an toàn hơn rất nhiều so với họ đã thực hiện với GPT-2. " Cũng như thực thi các điều khoản dịch vụ của riêng mình, Open AI cho biết họ đang làm việc để “phát triển các công cụ để gắn nhãn và can thiệp vào các biểu hiện của thành kiến có hại”, đồng thời tiến hành nghiên cứu riêng và làm việc với các học giả để xác định khả năng lạm dụng.
Tuy nhiên, để OpenAI phụ trách có thể không phải là một giải pháp lâu dài. Turan nói: “Bất cứ khi nào một công ty công nghệ trở thành người kiểm duyệt nội dung, thì đó là quy tắc chung,” bởi vì bạn đang củng cố quyền lực đạo đức vào một công ty. ” Vấn đề không phải là liệu những người điều hành OpenAI có phải là những người tốt, có đạo đức hay không, nó chỉ hơi khó khăn khi những quyết định này được đưa ra bởi một tổ chức thương mại (OpenAI đã chuyển từ một công ty phi lợi nhuận sang "giới hạn lợi nhuận" vào năm ngoái) .
Altman đã tweet OpenAI tin rằng họ “cần phải rất suy nghĩ về những tác động tiêu cực tiềm tàng mà các công ty như của chúng tôi có thể gây ra trên thế giới.” Và, trong một tuyên bố công khai, công ty đã kiên định với quan điểm này: “Đây là một vấn đề toàn ngành, khiến các tổ chức cá nhân dễ dàng thoái thác hoặc trì hoãn trách nhiệm. OpenAI sẽ không. ” Điều lệ của công ty nêu rõ "nghĩa vụ ủy thác chính của OpenAI là đối với nhân loại" và công ty sẽ không thỏa hiệp về sự an toàn để giành chiến thắng trong cuộc đua phát triển AI.
Có nhiều tùy chọn quy định thay thế, với nhiều ưu và nhược điểm khác nhau. Thậm chí có thể có một cách để hệ thống GPT-3 giúp giảm thiểu mặt tối của chính nó. Sandberg nói: “Điều nghịch lý là những hệ thống văn bản này thực sự rất giỏi trong việc tính toán xác suất mà một cái gì đó được viết bởi chúng. Vì vậy, thay vì giúp kích thích các nhà máy troll, GPT-3 có thể kiểm tra tin tức giả của chính nó.
Sandberg nói: “Các công nghệ có mục đích chung là những công nghệ thực sự biến đổi thế giới và ông tin rằng GPT-3 có tiềm năng làm được điều đó, nếu chúng ta có thể tìm ra cách sử dụng nó một cách có trách nhiệm. Ông nói: “Một cách mới để xử lý thông tin sẽ có ý nghĩa quan trọng đối với rất nhiều ứng dụng khác nhau, có nghĩa là chúng tôi không thể đoán trước được hậu quả”, “điều này thật đáng lo ngại khi bạn có những công nghệ rất mạnh rất nhanh."
Việc này sẽ mất thời gian và rủi ro là khó tránh khỏi, nhưng kiểm duyệt không phải là cách để giải quyết chúng. Một lựa chọn tốt hơn là để mọi người có ý thức về những câu hỏi và vấn đề này khi họ đang làm việc với GPT-3. Sandberg nói: “Tốt nhất là bạn muốn mọi người hiểu được tác động mà họ sẽ có. “Rất nhiều kỹ sư bị sa lầy vào việc làm cho mọi thứ hoạt động tốt hơn là ngước mắt lên phía chân trời và nghĩ 'điều này thực sự phù hợp với văn hóa của chúng ta ở đâu? Tôi nghĩ rằng nhận thức, nếu bạn có thể làm cho nó phổ biến, thực sự là thứ có thể làm cho mọi thứ trở nên an toàn hơn và hữu ích hơn nhiều. "
Không có nhận xét nào