• <option id="immmk"></option>
  • <noscript id="immmk"><kbd id="immmk"></kbd></noscript>

    大語言模型在線辯論說服力超人類

    實驗設計示意圖。圖片來源:英國《自然·人類行為》在線版《自然·人類行為》19日發表的一項人工智能(AI)研究發現,在線辯論中,GPT-4一類的大語言模型(LLM)如能根據對手的個性化信息調整它們的論據,其說服力比人類辯手高出64%。研究結果顯示了GPT-4生成有針對性和說服力論據的能力,揭示出AI工具擁有影響人類觀點的潛力,同時也提出應進一步研究如何降低其說服人類時存在的風險。隨著人類與LLM的對話日益普遍,有研究顯示LLM或變得更有說服力(即更能改變一個人的信念或觀點)。然而,之前并不清楚這些模型是否能根據個性化信息調整,提出更能針對辯論對手的論點。瑞士洛桑聯邦理工學院研究團隊此次將900名美國人分別與另一名人類或GPT-4配對。雙方辯論各種社會政治議題,如美國是否應該禁用化石燃料。在有些配對中,辯論對手(無論是AI還是人類)能獲得關于他們辯友的人口統計學信息,包括其性別、年齡、族裔、教育水平、就業狀況,以及從參與者調查中獲取......閱讀全文

    未來五年AI如何改變各學科?從LLM到AI蛋白設計、醫療保健......

      五年前(2019 年 1 月),《Nature Machine Intelligence》創刊。當然,就人工智能(AI)而言,五年前似乎是一個不同的時代。  1 月 24 日,Nature Machine Intelligence 雜志在《Anniversary AI reflections》(

    AI教育風潮席卷中國高校-學生用AI學AI

      “What does this machine do(這臺機器是干什么的)?”4日下午,西南交通大學孟加拉國留學生Zahidul Alam拍下身前吊弦疲勞試驗儀器的照片。收到他的語音提問后,手機中的24小時在線“AI學伴”瞬間給出如論文般詳細的英文回答。  這是西南交大首門人工智能通識課的第一課

    用AI識別AI:西湖大學研究可檢測AI生成文本

    虛假新聞、惡意產品評論、剽竊……ChatGPT、 GPT-4等AI大語言模型的應用帶來便利,但其誤用也帶來一系列問題。西湖大學工學院張岳教授的“文本智能實驗室”日前發布的一項研究提出一種高準確率、高速、低成本、通用的新文本檢測方法——Fast-DetectGPT,無需訓練即可識別各種AI大語言模型生

    ChatGPT的拷問:何為AI倫理、AI治理

    前不久,AI聊天機器人程序ChatGPT席卷全球,完成了AI第一次大規模的自傳播。作為人工智能領域的現象級應用,ChatGPT可能引發的信任、責任、倫理、法律等問題也很快引發各界關注與擔憂。近年來,不少關于人工智能(AI),并和人類生產、生活關系緊密的議題被廣泛討論,諸如“如何應對AI可能對社會產生

    ChatGPT的拷問:何為AI倫理、AI治理

    原文地址:http://news.sciencenet.cn/htmlnews/2023/2/494707.shtm   前不久,AI聊天機器人程序ChatGPT席卷全球,完成了AI第一次大規模的自傳播。作為人工智能領域的現象級應用,ChatGPT可能引發的信任、責任、倫理、法律等問題也很快引發各

    “AI+”時代-|-AI“解碼”免疫系統

      人體免疫系統包含了很多有關身體健康的信息,其中的關鍵部分就包含在血液中。醫學界提出了一個大膽設想:通過創建一個萬能的血液測試,采集免疫系統與病原體之間的反應信息,繪制“免疫圖譜”,從而解碼免疫系統中的信息,及時在疾病惡化前篩查確診。那么,什么樣的平臺能提供足夠的計算力,不斷通過機器學習和精準模型

    用AI數據訓練AI可能最終導致崩潰

      《自然》7月24日發表的一篇論文指出,用人工智能(AI)生成的數據集訓練未來幾代機器學習模型可能會污染它們的輸出,這個概念稱為“模型崩潰”(model collapse)。該研究顯示,原始內容會在數代內變成不相關的胡言亂語,顯示出使用可靠數據訓練AI模型的重要性。  生成式AI工具越來越受歡迎,

    AI“參謀”來了!中關村AI新藥研發平臺落成

       12月19日,由中關村生命科學園與角井(北京)生物技術有限公司共同發起建設的中關村AI新藥研發平臺在北京中關村生命科學園舉行落成典禮。該平臺于2020年12月開始籌建,旨在利用人工智能技術幫助制藥企業快速進行藥物靶點發現和篩選、藥物作用機制探索、特異性抗體優化等工作,成為生物醫藥企業新藥研發的

    用AI數據訓練AI可能最終導致崩潰

    《自然》7月24日發表的一篇論文指出,用人工智能(AI)生成的數據集訓練未來幾代機器學習模型可能會污染它們的輸出,這個概念稱為“模型崩潰”(model collapse)。該研究顯示,原始內容會在數代內變成不相關的胡言亂語,顯示出使用可靠數據訓練AI模型的重要性。生成式AI工具越來越受歡迎,如大語言

    為什么越使用AI,越活得像個AI

    生成式人工智能(AIGC)在重塑生產力的同時,也給高等教育領域帶來了顛覆性變革。然而,它所具有的“技術雙面性”很可能引發“流利但不真實”“道德偏見”“技術依賴”等問題,這將影響高等教育場景。2023年初,全球多所高校陸續出臺政策禁止學生使用生成式AI,但越來越多的大學開始意識到生成式AI勢不可擋,單

    “幫手”還是“幫兇”?生成式AI學術使用須關注

    圖片來源:《自然》網站生成式人工智能(AI)工具快速普及,在學術寫作領域呈現爆炸式應用勢頭。使用基于大語言模型(LLM)的生成式AI工具能節省時間,減少語言障礙,讓論文更加明白通暢。但這些工具的應用也讓剽竊問題變得更復雜。英國《自然》網站在近日的報道中指出,對利用AI寫作是否構成剽竊,以及在什么情況

    “幫手”還是“幫兇”?生成式AI學術使用須關注

    生成式人工智能(AI)工具快速普及,在學術寫作領域呈現爆炸式應用勢頭。使用基于大語言模型(LLM)的生成式AI工具能節省時間,減少語言障礙,讓論文更加明白通暢。但這些工具的應用也讓剽竊問題變得更復雜。英國《自然》網站在近日的報道中指出,對利用AI寫作是否構成剽竊,以及在什么情況下允許利用AI進行寫作

    人工智能大舉“入侵”科學搜索引擎

      當前,互聯網搜索引擎中出現了越來越多的人工智能(AI)聊天機器人,如谷歌的Bard、微軟的Bing等。這似乎將要改變科學搜索引擎。  據《自然》報道,8月1日,荷蘭出版業巨頭愛思唯爾向其Scopus數據庫的部分用戶發布了一個基于ChatGPT的AI界面。當天,英國數字科學公司(Digital S

    亞馬遜云推出AI代理功能,讓AI成為助理

      Amazon Bedrock的Agents(代理)功能將使公司能夠構建可以自動執行特定任務的AI應用程序,例如預訂餐廳,而不僅僅是得到去哪里吃飯的建議。  “很多人都如此聚焦于這些模型和模型的大小,但我認為真正重要的是如何利用它們構建應用,這也是今天發布代理(Agents)功能的一個重要原因。”

    “氏無界·AI無疆”醫療AI成果轉化行動啟動

    原文地址:http://news.sciencenet.cn/htmlnews/2024/1/516109.shtm

    “AI成龍”遇冷,AI數字人在影視業不靈?

    影視業成為“粗制濫造”的標簽?近日,影視巨星成龍主演、大量使用了人工智能(AI)數字人技術的電影《傳說》登陸大熒幕,卻遭遇了票房與口碑的雙失利。截至7月20日,豆瓣評分5.3,上映10天累計票房不到8000萬元。顯然,“AI成龍”遭到了冷遇。“AI成龍”本是《傳說》這部電影的賣點。據介紹,為了劇情需

    人工智能倒逼出版界“立規矩”

    2022年11月,OpenAI發布生成式人工智能(AI)工具ChatGPT。鑒于生成式AI可快速創建文本、圖像等內容,兩個月后,ChatGPT已作為作者,赫然出現在一些學術論文上。英國紐卡斯爾大學數字創新研究員薩瓦斯·帕帕揚尼斯表示,在學術界這一競爭激烈的領域,任何能增加研究人員學術產出的工具都是“

    ChatGPT如何“思考”

    北京時間5月14日凌晨,美國開放人工智能研究中心(OpenAI)發布了其下一代大型語言模型GPT-4o,人工智能(AI)領域再起硝煙。盡管AI一詞已很普及,但其內部運作方式仍像黑箱操作一樣,是一個謎。因為AI依賴機器學習算法,而先進的機器學習算法使用模擬人腦結構的神經網絡,信息在不同神經元間傳遞,以

    AI-耗電超出預期,未來-AI-進展或依賴能源突破

    據 technews 報道,由于 AI 消耗電力將遠遠超出人們預期,OpenAI 執行長 Sam Altman 認為,未來 AI 發展需要尋求能源突破。Sam Altman在彭博社于達沃斯世界經濟論壇(World Economic Forum)期間舉行的座談活動中談道,對氣候友善的能源,特別是核融合

    用AI生成數據訓練AI或導致模型崩潰

    科技日報北京7月25日電?(記者張夢然)《自然》24日正式發表的一篇研究論文指出了一個人工智能(AI)嚴重問題:用AI生成的數據集訓練未來幾代機器學習模型,可能會嚴重“污染”它們的輸出,這被稱為“模型崩潰”。研究顯示,原始內容會在9次迭代以后,變成不相關的“胡言亂語”(演示中一個建筑文本最終變成了野

    用AI生成數據訓練AI或導致模型崩潰

      《自然》24日正式發表的一篇研究論文指出了一個人工智能(AI)嚴重問題:用AI生成的數據集訓練未來幾代機器學習模型,可能會嚴重“污染”它們的輸出,這被稱為“模型崩潰”。研究顯示,原始內容會在9次迭代以后,變成不相關的“胡言亂語”(演示中一個建筑文本最終變成了野兔的名字),這凸顯出使用可靠數據訓練

    AI也分級?清華教授推動全球首個AI《分級定義》

      AI對話系統發展歷程 高凱 攝  28日,由清華大學計算機教授、智能技術與系統實驗室副主任黃民烈發起,聯合了十余家科研機構、二十多位知名學者共同制定的全球首個《AI對話系統分級定義》(以下簡稱《分級定義》)正式發布,《分級定義》將推動AI對話系統在虛擬個人助理、智能家居、智能汽車(車載語音)、情

    AI答題勝過真人

    近日一項發表于《公共科學圖書館-綜合》的研究發現94%的使用ChatGPT創建的大學考試答案,不會被檢測出是由人工智能(AI)生成的,而且這些答案的得分往往比真實學生的更高。如今,人工智能(AI)技術的興起和發展,如ChatGPT的誕生,對教育部門提出了一個根本性問題,即學校許多形式的評估,都是在沒

    AI答題勝過真人

    近日一項發表于《公共科學圖書館-綜合》的研究發現94%的使用ChatGPT創建的大學考試答案,不會被檢測出是由人工智能(AI)生成的,而且這些答案的得分往往比真實學生的更高。如今,人工智能(AI)技術的興起和發展,如ChatGPT的誕生,對教育部門提出了一個根本性問題,即學校許多形式的評估,都是在沒

    中國AI論文數量世界居首,美國AI系統遙遙領先

    原文地址:http://news.sciencenet.cn/htmlnews/2023/4/497845.shtm當地時間4月3日,由美國斯坦福大學以人為本AI研究院(HAI)發起、學術界聯合工業界組成的跨學科小組共同編制的“2023人工智能指數(AI Index)報告”(以下簡稱“斯坦福 AI

    《自然》封面:以AI生成數據訓練AI,模型變傻?

    大模型有許多“崩”的時候,但有一種崩潰叫做“自毀前程”——近日,《自然》發表在封面的一篇論文指出,用AI生成的數據集訓練未來幾代機器學習模型,可能會“污染”它們的輸出。這項由英國牛津大學、劍橋大學、帝國理工學院、加拿大多倫多大學等多所高校聯合開展的研究顯示,原始內容會在數代內變成不相關的“胡言亂語”

    《自然》封面:以AI生成數據訓練AI,模型變傻?

      大模型有許多“崩”的時候,但有一種崩潰叫做“自毀前程”——  近日,《自然》發表在封面的一篇論文指出,用AI生成的數據集訓練未來幾代機器學習模型,可能會“污染”它們的輸出。這項由英國牛津大學、劍橋大學、帝國理工學院、加拿大多倫多大學等多所高校聯合開展的研究顯示,原始內容會在數代內變成不相關的“胡

    txyz.ai初探EAD奧義:-AI釋讀7600系統新進應用

    SCIEX高分辨質譜 ZenoTOF??7600 系統自2021年發布以來,各種學科的科學家利用其新型的電子活化解離(Electron Activated Dissociation, EAD)技術結合Molecule Profiler和Biologics Explorer等數據處理軟件,在生物藥、脂

    日本發布大規模語言模型

      東京工業大學、日本理化學研究所及富士通公司等近日宣布,利用超級計算機“富岳”,他們開發的大規模語言模型“Fugaku-LLM”正式發布。  “Fugaku-LLM”是首個完全由日本國產技術構建的AI語言模型,其在處理日語及相關文化內容上表現卓越。模型特別擅長基于日語敬語進行自然對話,并展現出在人

    日本發布大規模語言模型

    科技日報訊?(記者李楊)東京工業大學、日本理化學研究所及富士通公司等近日宣布,利用超級計算機“富岳”,他們開發的大規模語言模型“Fugaku-LLM”正式發布。“Fugaku-LLM”是首個完全由日本國產技術構建的AI語言模型,其在處理日語及相關文化內容上表現卓越。模型特別擅長基于日語敬語進行自然對

  • <option id="immmk"></option>
  • <noscript id="immmk"><kbd id="immmk"></kbd></noscript>
    伊人久久大香线蕉综合影院首页