16.3 C
Tokyo
Tuesday, March 31, 2026
ホーム仕事Cohereの元幹部であるSara Hooker氏とSudip Roy氏は、彼らの新しいスタートアップであるAdaption Labsのシードラウンドで5,000万ドルを確保した。運

Cohereの元幹部であるSara Hooker氏とSudip Roy氏は、彼らの新しいスタートアップであるAdaption Labsのシードラウンドで5,000万ドルを確保した。運

Date:

関連記事

20個のビットコイン指標が同時に強調され、価格が150,000ドルまで上がることがあります。

暗号通貨アナリストであるSweepは、20のビットコイン指標が同時に強調し、主要な暗号通貨の楽観的な見通しを提供したと述べた。アナリストは、この発展に基づいてBTCが150,000ドルまで上昇し、新しい史上最高値(ATH)を記録できると予測しました。 20のビットコイン指標が$ 150,000の上昇を示唆しています。 Xポストで、Sweepは20の独立した指標が同時に強調していると述べました。彼はビットコインの歴史上、このようなことが3回しか起こらず、毎回300%の上昇が続いたと指摘しました。この指標の最初のものは、BTCがまだ遅れている間に史上最高値(ATH)を記録したグローバルM2通貨供給です。 関連読書 Sweepは、ドル指数が以前に2回も500%ラリーを上回った正確なレベルである100にあることをさらに明らかにしました。もう一つの楽観的な指標は、BTCの取引所保有量が7年ぶりに最低値に低下し、すべての暗号通貨取引所に残っているBTCは210万BTCに過ぎないということです。クジラは30日間に270,000 BTCを購入し、これらの交換準備金が減少しました。これは2013年以降の最大累積幅です。 ソース: Sweep on X...

Marc Andreessenは、AIの解雇は面白いことだと言います。会社の75%は従業員が過剰であり、AIは家の掃除のための「完璧な言い訳」です。幸運

AIベースの生産性へのコミットメントにより、多くの従業員が頭を恐れています。しかし、Andreessen Horowitzの共同創設者であり、総括パートナーであるMarc Andreessenにとって、この技術は長年にわたって理事会室に静かに滞在してきた長年のビジネス偶然を隠すトッケビに近いです。 億万長者は、ベンチャー資本家であり進行者であるHarry Stebbingsとの20VCショーインタビューで、AIは実際にコロナ19の流行による過剰雇用の結果である解雇の犠牲者だと述べた。 「基本的に、すべての大企業は従業員が過剰です」と彼は言いました。 「少なくとも25%は労働力の過剰です。ほとんどの大企業は50%の労働力を超えているようです。多くの企業が75%の労働力を超えているようです。」彼は「今、彼らはすべて「ああ、AIだ」という言い訳をしています」と付け加えました。 Andreessenの発言は、OpenAIのSam Altmanを含む一部の技術リーダーが「AIワッシング」と表現したAIの「万病痛歯磨き言い訳」に反発したり、AIの使用増加に対する正常な解雇を非難する業界では新しいものではありません。 多くのビジネスリーダーとAIの専門家は、AIのために労働市場が途方もない激変を経験すると述べた。一部はすでに解雇を行っており、これを技術のせいで回しています。ブロック(Block)CEOジャック都市(Jack Dorsey)は「大部分の企業がAI整理解雇傾向に遅れた」と考え、去る2月の人材40%を解雇した。オーストラリアのアメリカ人会社であるAtlassianも同様の動きを見せました。メタはAI支援人材による効率性向上に支えられ、大々的な整理解雇も計画中だという。 ファンデミック以降採用攻勢 しかし、多くの技術会社は採用の熱風のために家を掃除しました。...

ヒルトンの歓迎の恩恵はますます良くなって悪くなっています。

ヒルトンクレジットカードの受け取りに興味がある場合は、注目すべき新しい進歩があります。アメリカンエクスプレス(American Express)とヒルトン(Hilton)は最近、アメリカで最も人気のあるホテルクレジットカードの2つの新しいウェルカムメリットを発売し、その変化は混在しています。年会費のないHilton Honorsカードと中等級のSurpassカードの両方で、今すぐサインアップボーナスの一部として無料の宿泊特典が提供されます。しかし、これらのカードの1つでは、新しい特典に対応するためにボーナスポイントが大幅に減少しました。2026年4月15日まで、妥協案が価値があるかどうかを判断する必要があり、答えは完全に旅行方法によって異なります。年会費のないヒルトンカードを利用すれば無料宿泊が可能ですがポイントは減ります。普及したヒルトンのHonors American Expressカードはまだ年会費がないので、市場で最もアクセスしやすいホテルカードの1つです。新しいウェルカム特典は、6ヶ月間に2,000ドルを費やした後、ヒルトン・ホナーズボーナスポイント70,000ポイントと無料宿泊リワードを提供します。無料宿泊なしでボーナスポイント100,000ポイントを提供し、同じ支出要件である2,000ドルを支払わなければならなかったカードの以前の提案と比較するまで、これは十分に聞こえます。あなたはヒルトンホノーズポイント30,000ポイントを放棄します。これは、ポイントあたり約0.5セントの業界標準レートで、約150ドルの価値があります。自分に尋ねるべき質問は、ヒルトンホテルでの1泊無料宿泊がポイント価値である150ドルよりも価値があるかどうかです。Surpassカードはポイントを維持し、その上に無料宿泊を追加しました。Hilton Honors American Express Surpassカードはまったく違う話を聞き、年会費150ドルを喜んで支払う意思がある場合は、どちらの方が良い取引です。新規申請者は、カード購入時に6か月間$3,000を費やした後、ヒルトン・ホナーズボーナスポイント130,000ポイントと無料宿泊リワードを受け取ります。関連項目:ヒルトン、旅行者のための大規模期間限定商品発売ここの総ポイントは、カードの以前の歓迎提案と変わらず、これは新規申請者のための純粋なアップグレードであることを意味します。このカードには、無料のヒルトン・ホナーズゴールドグレードも付属しています。このクラスは、可能であれば客室のアップグレードを提供し、滞在時に80%の追加ボーナスポイントを提供します。また、ヒルトンホテルで直接購入すると、最大200ドルの年間明細クレジットを受け取ることができます。四半期ごとに最大50ドルまで自動的に適用されます。無料滞在は、使用方法によっては100ドルまたは500ドルの価値があります。ヒルトン無料宿泊リワードは、スタンダードルームにつき1泊につき5,000~250,000ポイント必要なホテルでご利用いただけます。その範囲は膨大で、あなたの実際の価値は完全に宿泊券を使用することを選択した場所と時期によって異なります。その他の旅行:トランプの新しい旅行禁止に全世界が反発、低コストの航空会社が人気のビーチ目的地に5つの新しいフライトを追加...
spot_imgspot_img

AI 研究者であり、コンピューティング能力の使用を抑えた手頃な価格の AI システムの提唱者であるサラ フッカー氏は、自らの命を賭けています。 AI企業Cohereの元研究担当副社長でGoogle DeepMindのベテランでもある同氏は、自身の新興スタートアップであるAdaption LabsHookerのシード資金として5,000万ドルを調達した。共同創設者のスディップ・ロイ氏は、以前Cohereで推論コンピューティング部門のディレクターを務めていたが、現在のほとんどのAIメジャー企業よりも使用するコンピューティング能力と実行コストが低いAIシステムの開発に取り組んでいる。モデル。また、さまざまなテクノロジーを使用して、解決する必要がある個々のタスクに対して既存のほとんどのモデルよりも「適応」できるモデルを目指しています。この資金調達ラウンドは Emergence Capital Partners が主導し、Mozilla Ventures、ベンチャーキャピタル会社 Fifty Years、Threshold Ventures、Alpha Intelligence Capital、e14 Fund、Neo が参加しています。サンフランシスコに本拠を置くアダプション・ラボは、資金調達後の評価額に関する情報の提供を拒否した。フッカー氏はフォーチュンに対し、コストのかかる再トレーニングや微調整を必要とせず、AI モデルを特定のユースケースに合わせて調整するために現在ほとんどの企業が使用している広範なプロンプトやコンテキスト エンジニアリングを必要とせずに、継続的に学習できるモデルを作成したいと語った。継続的に学習できるモデルを作成することは、AI の最大の課題の 1 つと考えられています。 「これはおそらく私が研究した中で最も重要な問題です」とフッカー氏は語った。

Adaption Labs は、より有能な AI モデルを作成する最善の方法は、基礎となる LLM をより大きくし、より多くのデータでトレーニングすることであるという、一般的な AI 業界の常識に対する大きな賭けを表しています。大手テクノロジー企業は大規模なトレーニングの実施に数十億ドルをつぎ込んでいるが、このアプローチでは利益が減少しているとフッカー氏は主張する。 「ほとんどの研究所では、モデルのサイズを毎年 4 倍にすることはありません。主な理由は、アーキテクチャが飽和しているためです」と彼女は言いました。

フッカー氏は、AI業界はもはや「判断点」にあり、単により大きなモデルを構築することによって改善を行うことはできず、むしろ目の前のタスクにより簡単かつ安価に適応できるシステムを構築することによって改善を行うことができると述べた。 Adaption Labs は、いわゆる「ネオラボ」だけではありません。OpenAI、Anthropic、Google DeepMind などのより確立された企業の成功に続く、次世代の最先端の AI ラボであり、継続的な学習を目的とした新しい AI アーキテクチャを追求しています。 OpenAIの上級研究員であるジェリー・トゥーレック氏は、ここ数週間で同社を退職し、Core Automationと呼ばれる自身のスタートアップを設立し、新しいAI手法を使用して継続的に学習できるシステムの作成にも興味があると述べた。 Google DeepMind の元主任研究員である David Silver 氏は、先月テクノロジー大手を退職し、Ineffable Intelligence と呼ばれるスタートアップを立ち上げました。このスタートアップは、AI システムが静的データではなく実行されるアクションから学習する強化学習の使用に焦点を当てます。これにより、一部の構成で継続的に学習できる AI モデルが実現する可能性があります。フッカー氏のスタートアップは、3 つの「柱」を中心に仕事を組織しています。適応データ (AI システムが必要とするデータを生成および操作するデータ。大規模な静的データ セットでトレーニングする必要がなく、その場で問題に答える必要があります)。適応型インテリジェンス (問題の難易度に基づいて、消費するコンピューティングの量を自動的に調整します) と適応型インターフェイス (ユーザーがシステムと対話する方法から学習します)。 Google に在籍していた頃から、フッカー氏は AI 業界内で、多くの AI 研究者仲間の「規模がすべて」の原則に反対する人物としての評判を高めてきました。広く引用されている 2020 年の論文「ハードウェア宝くじ」の中で、彼女は、AI のアイデアが成功するか失敗するかは、AI 自体の利点ではなく、既存のハードウェアに適合するかどうかに基づいて決まると主張しました。最近、彼女は「スケーリングの緩やかな死について」という研究論文を書き、より優れたトレーニング技術を備えた小規模なモデルは、はるかに大きなモデルよりも優れたパフォーマンスを発揮できると主張しています。

Cohere では、Aya プロジェクトを支持しました。このプロジェクトは、119 か国の 3,000 人のコンピューター科学者と協力して、主要な先駆的モデルのパフォーマンスが低かった数十の言語に最先端の AI 機能を導入し、比較的コンパクトなモデルを使用してそれを実現しました。この研究は、データのキュレーションとトレーニングに対する創造的なアプローチが生のスケールを補完できることを実証しました。 Adaption Labs が研究しているアイデアの 1 つは、「勾配なしの学習」です。今日の AI モデルはすべて、数十億のデジタル ニューロンを含む非常に大規模なニューラル ネットワークです。従来のニューラル ネットワーク トレーニングでは、勾配降下法と呼ばれる手法が使用されます。これは、目隠しをしたハイカーが谷の最低点を見つけながら、斜面を下っているかどうかを感じようとするのに似ています。このモデルは、特定のニューロンが自身の出力において接続されている他のニューロンの入力をどの程度強調するかを決定する「重み」と呼ばれる何十億もの内部設定を微調整することにより、各ステップの後に正しい答えに確実に近づけます。このプロセスには膨大な計算能力が必要で、数週間から数か月かかる場合もあります。モデルがトレーニングされると、これらの重みは所定の位置に固定されます。特定のタスクに合わせてモデルを磨き上げるために、ユーザーは微調整に頼ることがあります。これには、通常は依然として数千または数万のケースで構成される、より小規模で精選されたデータセットでモデルをさらにトレーニングし、モデルの重みをさらに調整することが含まれます。繰り返しになりますが、費用が高額になる可能性があり、場合によっては数百万ドルに達することがあります。

あるいは、ユーザーは、モデルに実行してもらいたいことを実行する方法について、非常に具体的な指示やプロンプトをモデルに与えたい場合があります。フッカー氏はこれを「気の早いスタント」として却下し、プロンプトが頻繁に機能しなくなり、モデルの新しいバージョンがリリースされるたびに書き直す必要があると指摘しました。彼女の目標は「ラピッド・エンジニアリングを排除する」ことだと彼女は語った。

勾配なし学習では、微調整と迅速なエンジニアリングにより多くの問題を回避します。 Adaption Labs のアプローチは、コストのかかるトレーニングを通じてモデルの内部重みをすべて調整するのではなく、クエリに応答した瞬間、つまり研究者が「推論時間」と呼ぶモデルの動作を変更します。モデルのコアの重みは変わりませんが、システムは現在のタスクに応じて動作を調整できます。

「重みを変更せずにモデルを更新するにはどうすればよいですか?」フッカー氏は語った。 「アーキテクチャ分野では本当にエキサイティングなイノベーションが起きており、より効率的な方法でコンピューティングを活用しています。」彼女はこれを行うためのいくつかの方法について言及しました。 1 つは「オンザフライ マージ」で、システムは基本的にアダプターのレパートリー (小規模なデータセットで個別にトレーニングされることが多い小規模なモデル) から選択します。これらのアダプターは、大規模な基本モデルの応答を形成します。モデルは、ユーザーの質問に基づいて、どのアダプターを使用するかを決定します。

もう一つの方法は「動的デコード」です。デコードとは、モデルがさまざまな考えられる答えの中から出力をどのように選択するかを指します。動的デコードでは、モデルのデフォルトの重みを変更せずに、現在のタスクに基づいて確率を変更します。 「私たちは単なるモデルから脱却しつつあります」とフッカーは語った。 「これはより深い概念の一部です。これはインタラクションに基づいており、モデルはタスクの内容に応じてリアルタイムで変更する必要があります。」フッカー氏は、このような方向への移行はAIの経済学を根本的に変えると主張する。 「最も高価なコンピューティングは事前トレーニング コンピューティングです。これには膨大な量のコンピューティングと膨大な時間が必要となるためです。推論コンピューティングを使用すると、コンピューティング能力の各単位でより多くのメリットが得られます。」と彼女は言いました。

Adaption の CTO として、Roy は AI システムを効率的に実行するための深い専門知識をもたらします。 「私の共同創設者は GPU を非常に高速に開発しています。リアルタイム コンポーネントを備えているため、これは私たちにとって重要です」とフッカー氏は述べています。

フッカー氏は、アダプションはシードラウンドで得た資金を利用して、より多くのAI研究者とエンジニアを雇用し、ほとんどのAIモデルが使用する標準的な「チャットバー」を超えたAIの別のユーザーインターフェースに取り組むデザイナーを雇用すると述べた。

この記事はもともと Fortune.com に掲載されました。

Website |  + posts

最新のストーリー

spot_img