
Betaworks 在最新的營隊中全面投入擴增人工智慧 :「我們對此領域懷有狂熱的興趣」
背景
Betaworks 對於投資人工智慧和機器學習並不陌生,但他們最新的「主題加速器」營隊的參與企業表明他們對這個領域的信心超越了對聊天機器人的迷戀。創始人兼執行長 John Borthwick 將該公司描述為對擴增人工智慧領域有「狂熱的興趣」,而不僅僅是將其視為一個產品本身。他告訴我說:"與去年相比,此次營隊的申請者增加了一倍。這個有趣的部分在於,你公開徵集,以這個主題,你會得到比預期更多樣性的回應。我們相信,在未來的 2-3 年內,將會有大量的公司建立和使用擴增人工智慧模型來增強人類的工作流程和行為。"
擴增人工智慧的應用
擴增人工智慧的最重要用途之一是能夠快速且令人滿意地回答幾乎任何主題的問題,或者對於像程式設計問題之類的事情給出合理的答案。人們並非僅僅為了樂趣而與人工智慧進行對話(雖然確實有這樣的人),如果它能夠使工作變得更輕鬆,為什麼不使用呢?Borthwick 指出,Betaworks 自 2016 年以來一直在投資於人工智慧和機器學習,當時這些領域的技術還非常原始。他說:"我們從系統地研究機器學習和特定形式(如音訊、合成媒體等)的交叉口開始。在過去的一年或兩年中,我們一直在思考人工智慧在人類工作流程中的角色,我們堅信,並希望投資並推動市場朝著擴增的方向發展。"這種思考方式就像把人工智慧視為"思考的腳踏車",而非純粹生成或自成一格的產品。
營隊中的企業
以下為今年營隊中的 12 家企業(摘要,根據他們提供的摘要總結):
- Armilla Assurance:一家評估 AI 系統質量和可靠性的服務提供商。該公司還提供針對因 AI 表現不佳而造成損失的保險。如何評估 AI 風險和合適性的衡量指標,如果這些指標是業界標準,為什麼公司不僅僅進行內部評估?Armilla 使用行業標準和專有的測試方法來提供客觀的質量量度和效能保證,但這些措施並不替代將這些措施納入開發過程中。
- Bionic Health:使用基於他們位於北卡羅來納州診所的資料("醫生、從業人員和患者的實際工作、協議和工作流程")的 AI 驅動模型進行預防性醫療保健。該公司還建立了一個更智慧的電子健康記錄系統,該系統使用嵌入特徵進行搜尋和洞察。已經籌集了 350 萬美元的種子輪融資。為什麼我希望使用基於醫生和健康專家決策的 AI 模型,而不是請教醫生或其他擁有資格的健康專家?這個系統對醫生是有幫助的,而不是直接提供給消費者,改進的電子健康記錄系統應該減少這種環境中的文書工作,使醫生和患者能夠專注於做出明智的護理決策。
- Deftly:一個機器學習平臺,將客戶反饋和其他訊號匯總並合成為更易於操作的產品變化和功能。一個新創企業如何獲得"分散的產品反饋"並對其進行匯總和合成?沒有直接回答這個問題,但所有的反饋表單、會議記錄和其他渠道中的資料都被納入並在儀表板上共享,以便產品團隊更容易理解。
- Globe:為需要"收集、交換和理解複雜訊息"的團隊建立大型語言模型,如大規模研究或產品開發。該語言模型可以在不同的詳細程度上進行諮詢,從概況到技術詳情,甚至可以提供相關檔案中的確切引用。考慮到語言模型的局限性,我為什麼要相信它能夠提供多個層次的複雜資料或專案的細節?目標是提供有用的訊息,特別是那些可能起初不知道的訊息,而不是從中提取新訊息。它似乎更像是一個語義增強的搜尋。
- GroupLang:正在開發一款允許語言模型與群體而不僅僅是個體互動的軟體,這個任務涉及重新定義使用者偏好、隱私和其他有趣的問題。群體需要與語言模型集體互動的一個例子是什麼?他們說,這更多是集體使用可能是有益的,例如,在一個共享的複雜任務中,一個中央系統正在跟蹤對所有參與者重要的訊息。
- Open Souls:旨在建立能夠"自主思考和表現如真人一樣的"對話型 AI 模型,包括情感、個性和內部複雜性。這是一個很大的說法,但它是否不過是一個透過初始指令載入的精確調整模型?精確調整主要是改變語言模式,而不是模型內部執行的方式。他們的方法是透過附加看不見的額外過程來對語言模型進行增強,模擬"豐富的內心對話"來指導行為。
- Pangaea:使用 AI 和一些定制的後端技術,更快地構建遊戲並承擔耗時的任務,首先開發了一個帶有程式生成地圖的搶搭冒險遊戲(專案名為 Rise)。競爭性多人遊戲需要細心的玩法和地圖平衡。在這種程度的程式生成遊戲中如何實現這一目標?一些遊戲比其他遊戲更依賴於平衡性,在這種情況下,更重要的是確保"公平",禁止直接壞程式生成導致的失敗。還將有手工設計的房間、挑戰、關卡和規則,以確保遊戲體驗得到良好調節。此外如果你死了,你將會以怪物的形式重生並保留一些進展。
- Plastic Labs:旨在透過"安全地管理使用者和模型之間的密切心理資料流"來改善語言模型的可行性。這樣,您可以在不必再次學習和儲存不同偏好和趨勢的情況下對不同的代理進行自定義。這個框架實際上由什麼組成?如果問題中的 AI 應用程式都使用不同的基礎模型或偵錯過程,它如何保持有效?這是一個"安全的中介軟體中繼器"。由於所有基礎模型似乎都具有"構建和理解關於內在心理狀態的預測"的能力,某些方法可以適用於所有語言模型。對這種能力的準確性還不清楚,但他們聲稱這使得他們的行動式自定義成為可能。
- Shader:一個社交相機應用程式,讓使用者使用簡單而不需要編碼的介面(包括語音和簡單的點選和滑動)建立 AR 濾鏡。創造的過程是什麼樣的,如何將濾鏡分享到 Instagram 或 Snapchat 等專有平臺?你可以用傳統提示語,例如"賽博朋克精靈臉部"來描述你想要的內容,然後可以將它實時對映到你的臉上。濾鏡本身保留在 Shader 上,你需要將影片匯出到其他平臺上。
- Unakin:利用 AI 程式碼助手來減少開發時間。首先是一個用於建立具有文字或視覺提示的功能性遊戲 AI 的 UI 程式設計代理。
該代理是否已存在,它現在與其他生成程式碼的語言模型相比,當前具有哪些具體的功能?他們正在內部使用它進行改進的程式碼搜尋、程式碼生成(尚未進行基準測試,但特別是在 UI 建立方面預計可以競爭)以及一個將 Figma 和 Adobe 檔案直接轉換為遊戲內 UI 的影象到程式碼的過程。 - Vera:根據公司設定的規則,幫助工作場所採用人工智慧技術來過濾模型的輸入和輸出。基本上,它可以為人工智慧提供 IT 對其他商業軟體的監控。因此它可以記錄企業使用的 AI 的所有輸入和輸出,並在傳送到語言模型之前對這些內容進行更密切的控制?基本上是的-它透過使互動可觀察和攔截敏感訊息等方式解決了安全和隱私問題。回應也可以進行一致性和錯誤檢查。
- Waverly:一個"想法的社交網路",利用 AI 來"重新混合"這些想法,並使用對話式 AI 作為控制反演供稿的方法。AI 模型如何確切地"重新混合"想法,對話式 AI 又如何提供了更好地控制自己反演的方法?"WordDJ"工具沒有鍵盤,但你可以像冰箱貼一樣移動文字塊或將它們組合起來。對話代理允許使用者更具體地描述他們想要看到更多或更少的內容,而不是靜音帳戶或其他方法。
結論
今年的 Betaworks 營隊展示了擴增人工智慧在不同領域的應用。這些企業涵蓋了各種領域,從醫療保健到遊戲開發,都希望透過擴增人工智慧的技術改進現有流程或推出新產品。
擴增人工智慧的發展提供了許多機遇,但也帶來了一些倫理和隱私的考慮。企業應該在開發過程中注重安全和隱私,並確保他們的應用程式尊重使用者的許可權和需求。同時政府和監管機構也需要密切關注這一領域的發展,制定相應的法律和準則來保護公眾的利益。
對於創業家和開發者來說 Betaworks 的投資和支援為他們提供了寶貴的機會。透過參與營隊,他們可以獲得資金、專業指導和與其他企業家的交流,這將有助於他們發展和推出創新的擴增人工智慧解決方案。
長期來看,擴增人工智慧有望影響各行各業,從提高生產力到創造更好的使用者體驗,甚至可能解決一些全球性問題。然而我們不能忽視其潛在的風險和挑戰。只有透過明智地應用和監管,我們才能確保擴增人工智慧真正成為一個有益的工具,而不是對人類社會和價值觀的威脅。