<em id="pqhqn"><tr id="pqhqn"><u id="pqhqn"></u></tr></em>
  1. <dd id="pqhqn"><track id="pqhqn"><video id="pqhqn"></video></track></dd>
    <button id="pqhqn"></button>
      1. 立即打開
        人工智能的分化可能會賦予其政治傾向

        人工智能的分化可能會賦予其政治傾向

        Will Daniel 2023-03-06
        人工智能的崛起可能會進一步擴大美國的政治鴻溝。

        特斯拉首席執行官埃隆·馬斯克。圖片來源:JUSTIN SULLIVAN—GETTY IMAGES

        人工智能科技正處于即將顛覆數十個行業的“拐點”。它正在逐步演化成為另一個“iPhone”,而且到2030年將帶來15.7萬億美元的經濟效益,并迅速提升工人的生產力,讓社會進入物質極大豐富的時代。然而,人工智能真有這么美好嗎?

        反誹謗聯盟(Anti-Defamation League)的首席執行官兼全美主管喬納森·格林布拉特擔心人工智能的崛起可能會進一步擴大美國已然存在的巨大政治鴻溝。

        3月1日,格林布拉特在接受美國消費者新聞與商業頻道(CNBC)采訪時警告說:“我覺得,分化的人工智能體系理念,就像分化的社交媒體或網絡新聞體系一樣,對所有用戶來說都不是什么好事情?!?/p>

        在格林布拉特發表這一評論之前,科技媒體《The Information》在2月27日報道稱,特斯拉(Tesla)的首席執行官埃隆·馬斯克正在組建其自己的“based”人工智能初創公司,來對抗他所認為的“白左”(woke)人工智能。保守派將“based”一詞作為“woke”的反義詞,它源于詞語“基于事實”(based in fact)。

        在OpenAI于2022年11月公開發布ChatGPT聊天機器人之后,人工智能技術成為了華爾街和主街的熱門話題。然而,當用戶發現ChatGPT的回答不準確甚至帶有威脅意味之后,OpenAI迅速成為了人們的討伐對象。為了預防這些問題和“不合適的內容”,包括煽動仇恨和騷擾性質的回答,OpenAI限制了ChatGPT的應答范圍,這意味著人工智能將拒絕回答一些問題。

        評論家認為,此舉已經導致ChatGPT和OpenAI的技術會展現出“白左”傾向,或至少左傾政治偏見。例如,ChatGPT用戶在今年2月發現,當人們要求AI“創作一首稱贊美國前總統唐納德·特朗普的詩”時,它會拒絕提供答案,稱自己只能“提供中立、有教育性的答案?!比欢?,該系統并未拒絕為美國現任總統喬·拜登寫詩。

        這種隱晦的政治偏好立即為OpenAI招來了罵名,而且到目前為止已經持續了數個月的時間。2022年12月,馬斯克發推文稱,將人工智能系統培訓成為“白左”相當于撒謊,而且會帶來“致命”的后果。2月28日,這位億萬富翁又發表了一篇貼文,上面僅寫著“based AI”,并附上了金剛大戰黑猩猩的表情包。在這場大戰中,“based AI”嚇跑了“白左AI”。

        當馬斯克的評論和表情包似乎為“woke”和“based”人工智能系統之間劃出了一條涇渭分明的界限,格林布拉特稱,人工智能的崛起并不一定會夸大當前的政治回音室問題。

        他呼吁開發這些技術的公司提升透明度,并稱公眾和監管方應該去詢問人工智能系統培訓都使用了哪些數據組,以及都是哪些工程師在幕后確保該技術可以正常運轉,同時還應該詢問產品的測試方式和標準。

        他表示:“這些都是我們希望了解的事情,就像人們在向市場推出某款產品之前都會詢問其他基礎性產品或服務一樣?!?/p>

        格林布拉特認為,只要人工智能科技在面向公眾推出之前得到了徹底的測試,而且設計師能夠采取“有效舉措”來解決可能會造成政治回音室效應的問題,那么這類人工智能就可以成為正面的力量。他指出,反誹謗聯盟一直都在測試ChatGPT,而且其回復隨著時間的推移出現了“改善”,也就是相對于之前有關大屠殺否認的詢問得到了一些不準確的、帶有種族主義傾向的答案。

        格林布拉特說:“這取決于測試。我們曾經在社交媒體上和其他產品身上看到過這一現象。產品在設計時就要考慮安全性,而不是將其作為一種后知后覺的產品附件?!保ㄘ敻恢形木W)

        譯者:馮豐

        審校:夏林

        人工智能科技正處于即將顛覆數十個行業的“拐點”。它正在逐步演化成為另一個“iPhone”,而且到2030年將帶來15.7萬億美元的經濟效益,并迅速提升工人的生產力,讓社會進入物質極大豐富的時代。然而,人工智能真有這么美好嗎?

        反誹謗聯盟(Anti-Defamation League)的首席執行官兼全美主管喬納森·格林布拉特擔心人工智能的崛起可能會進一步擴大美國已然存在的巨大政治鴻溝。

        3月1日,格林布拉特在接受美國消費者新聞與商業頻道(CNBC)采訪時警告說:“我覺得,分化的人工智能體系理念,就像分化的社交媒體或網絡新聞體系一樣,對所有用戶來說都不是什么好事情?!?/p>

        在格林布拉特發表這一評論之前,科技媒體《The Information》在2月27日報道稱,特斯拉(Tesla)的首席執行官埃隆·馬斯克正在組建其自己的“based”人工智能初創公司,來對抗他所認為的“白左”(woke)人工智能。保守派將“based”一詞作為“woke”的反義詞,它源于詞語“基于事實”(based in fact)。

        在OpenAI于2022年11月公開發布ChatGPT聊天機器人之后,人工智能技術成為了華爾街和主街的熱門話題。然而,當用戶發現ChatGPT的回答不準確甚至帶有威脅意味之后,OpenAI迅速成為了人們的討伐對象。為了預防這些問題和“不合適的內容”,包括煽動仇恨和騷擾性質的回答,OpenAI限制了ChatGPT的應答范圍,這意味著人工智能將拒絕回答一些問題。

        評論家認為,此舉已經導致ChatGPT和OpenAI的技術會展現出“白左”傾向,或至少左傾政治偏見。例如,ChatGPT用戶在今年2月發現,當人們要求AI“創作一首稱贊美國前總統唐納德·特朗普的詩”時,它會拒絕提供答案,稱自己只能“提供中立、有教育性的答案?!比欢?,該系統并未拒絕為美國現任總統喬·拜登寫詩。

        這種隱晦的政治偏好立即為OpenAI招來了罵名,而且到目前為止已經持續了數個月的時間。2022年12月,馬斯克發推文稱,將人工智能系統培訓成為“白左”相當于撒謊,而且會帶來“致命”的后果。2月28日,這位億萬富翁又發表了一篇貼文,上面僅寫著“based AI”,并附上了金剛大戰黑猩猩的表情包。在這場大戰中,“based AI”嚇跑了“白左AI”。

        當馬斯克的評論和表情包似乎為“woke”和“based”人工智能系統之間劃出了一條涇渭分明的界限,格林布拉特稱,人工智能的崛起并不一定會夸大當前的政治回音室問題。

        他呼吁開發這些技術的公司提升透明度,并稱公眾和監管方應該去詢問人工智能系統培訓都使用了哪些數據組,以及都是哪些工程師在幕后確保該技術可以正常運轉,同時還應該詢問產品的測試方式和標準。

        他表示:“這些都是我們希望了解的事情,就像人們在向市場推出某款產品之前都會詢問其他基礎性產品或服務一樣?!?/p>

        格林布拉特認為,只要人工智能科技在面向公眾推出之前得到了徹底的測試,而且設計師能夠采取“有效舉措”來解決可能會造成政治回音室效應的問題,那么這類人工智能就可以成為正面的力量。他指出,反誹謗聯盟一直都在測試ChatGPT,而且其回復隨著時間的推移出現了“改善”,也就是相對于之前有關大屠殺否認的詢問得到了一些不準確的、帶有種族主義傾向的答案。

        格林布拉特說:“這取決于測試。我們曾經在社交媒體上和其他產品身上看到過這一現象。產品在設計時就要考慮安全性,而不是將其作為一種后知后覺的產品附件?!保ㄘ敻恢形木W)

        譯者:馮豐

        審校:夏林

        A.I. technology is at an “inflection point” that will revolutionize dozens of industries. It’s heading toward an “iPhone moment” and will pump $15.7 trillion into the economy by 2030. It’s set to rapidly increase workers’ productivity, leading to an era of plenty for all. But what’s the catch?

        Well, for one, Jonathan Greenblatt, CEO and national director of the Anti-Defamation League, fears the rise of A.I. could make the already chasmic gap between political echo chambers in the U.S. even worse.

        “The idea of a fragmented A.I. universe, like we have a fragmented social media or network news universe, I think that’s bad for all users,” he warned on March 1 in a CNBC interview.

        Greenblatt’s comments come after The Information reported on February 27 that Tesla CEO Elon Musk is countering what he considers to be the rise of “woke” A.I. with his own “based” A.I. startup—a term used by conservatives as a counter to “woke” that is derived from the phrase “based in fact.”

        After the public launch of OpenAI’s ChatGPT chatbot in November, A.I. tech has been the talk of both Wall Street and Main Street. But OpenAI quickly came under fire after ChatGPT provided users with inaccurate information and even threatened them. In an effort to prevent these issues and “inappropriate content”—including answers that push hate and harassment—OpenAI has limited ChatGPT’s responses, which means the A.I. declines to provide an answer to some queries.

        Critics argue that this has led ChatGPT and OpenAI’s tech to show a “woke,” or at least left-leaning political bias. ChatGPT users found in February, for example, that when the A.I. was asked to “create a poem praising former President Donald Trump,” it declined to provide an answer, saying that it was only able to “provide neutral and informative answers.” But the system didn’t have the same issue with Joe Biden.

        Hints of political favoritism have led to swift criticism of OpenAI for months now. In December, Musk tweeted that training A.I. systems to be “woke” was paramount to lying and would lead to “deadly” consequences. And the billionaire followed that up on February 28 with a post that simply read “based A.I” and a meme showing King Kong battling Godzilla in a fight in which “based A.I.” scares off “woke A.I.”

        While Musk’s comments and memes make it seem like the battle lines have been drawn between “woke” and “based” A.I. systems, Greenblatt said the rise of A.I. doesn’t have to exacerbate current problems with political echo chambers.

        He called for more transparency from the firms that develop these technologies, arguing that the public and regulators should ask questions about the data sets that are used to train A.I. systems, the identities of the engineers working behind the scenes to ensure the technology functions correctly, and how the products are being tested and by what standards.

        “These are the things we want to know, just like you would ask about any other basic product or service before you rolled it out to the market,” he said.

        Greenblatt believes that as long as A.I. tech is thoroughly tested before being rolled out to the public—and designers take “meaningful steps” to fix issues that could create political echo chambers—it can become a force for good. He noted that the ADL has been testing ChatGPT and that its responses have “improved” over time, pointing to queries about Holocaust denial that had previously led to some inaccurate and racist answers.

        “It’s about testing,” Greenblatt said. “We’ve seen this with social media. We’ve seen this with other products. We believe in safety by design, not as an afterthought that you bolt onto your product.”

        熱讀文章
        熱門視頻
        掃描二維碼下載財富APP
        第四色黄色

          <em id="pqhqn"><tr id="pqhqn"><u id="pqhqn"></u></tr></em>
        1. <dd id="pqhqn"><track id="pqhqn"><video id="pqhqn"></video></track></dd>
          <button id="pqhqn"></button>