techQuicker

537 posts

techQuicker banner
techQuicker

techQuicker

@kinsonwu08

Hong Kong Katılım Haziran 2013
477 Takip Edilen95 Takipçiler
techQuicker
techQuicker@kinsonwu08·
@akazwz_ gemini cli升级到最新版就能正常使用了
中文
0
0
1
46
akazwz
akazwz@akazwz_·
gemini cli 也要收紧了
akazwz tweet mediaakazwz tweet media
中文
1
0
2
785
Annie 所长
Annie 所长@web3annie·
我发现现在的模型都偏科 所以我基本混着用 Claude 擅长深度推理、复杂长文写作、代码 Gemini 擅长多模态、图片 ChatGPT 擅长数学、逻辑推理、创意写作 Grok 擅长实时 X 资讯 DeepSeek 擅长中文场景 Perplexity 擅长实时搜索引用 Kimi 擅长中文Agent、免费额度大
中文
36
240
1.2K
160.2K
techQuicker
techQuicker@kinsonwu08·
@caiziboshi 这跟网红打卡没啥区别,赶时髦而已,赚到钱的就是卖工具的人。
中文
0
0
0
658
蔡子博士Chris
蔡子博士Chris@caiziboshi·
深圳彻底赢麻了,被open claw创始人转发! 中国的AI应用真的是走的很快!
蔡子博士Chris tweet media
中文
14
3
69
20.5K
techQuicker
techQuicker@kinsonwu08·
@kevinma_dev_zh 我用ios的快捷指令+eleventlabs的api就能语音输入了,通过粘贴板中转,不用跳转而且免费。
中文
1
2
6
2.9K
Kevin Ma
Kevin Ma@kevinma_dev_zh·
昨天给我老婆用了一下 Typeless 输入法,让她有点震惊到。 开始是因为她有一个很棒的想法,她想得挺明白的,逻辑很清晰。然后我们就聊了几分钟,探讨了一下。 我觉得要把这些东西写下来挺费劲的,就打开 Apple Notes,让她用我的语音输入法去口述,把刚刚的一些想法再讲一遍。 她大概一口气讲了几分钟没停。讲完之后停下来,过了几秒钟,Apple Notes 里面直接出现了整理好的、结构化且很清晰的文字。 她有点被震惊到,不知道这些是怎么出来的。
中文
36
30
480
137.3K
純粹
純粹@MUSK1911·
@EvanWritesX 我家也类似 不过FaceTime这两年用得少了 苏州会被ga 提醒 上海还好😅
中文
12
0
15
16.8K
Jason
Jason@EvanWritesX·
因为全家都用 Apple 设备,日常沟通全靠 FaceTime + iMessage。 比微信稳定,延迟低,不用担心被限流或屏蔽。 真的建议有条件的家庭试试——回归原生通讯,效率直接上去了。
Jason tweet media
中文
118
22
428
163.6K
techQuicker
techQuicker@kinsonwu08·
@lijigang 我是让notebooklm先提取主要内容,如果觉得需要精读再阅读全文,否则就采用多轮讨论的方式来获取所需内容就行。
中文
0
0
0
140
李继刚
李继刚@lijigang·
关于读书,可以拉出两个极端: 一端是「古法阅读」,打开一本纸书,从头到尾阅读,时不时前后翻看,关联对比,思考联想。读的过程,本身就是在冲刷自己大脑神经网络。 一端是「AI 阅读」,PDF 或者书名丢给一个Prompt/skill,瞬间获得各种视角的解读、提炼。这些结果,与自己「古法阅读」半天记录的收获完全一致,甚至更加全面深刻。 曾经我以为这是一个光谱,不走极端,两种方式结合一下就好了。但实践过程中,后者的吸引力实在太强了,我找书的速度甚至都赶不上它生成解读的速度,我连阅读解读的精力都快不够了,何谈「两者结合」? 观察了自己的这种状态有阵子了,发现大脑确实被这种读法给影响了,AI 带来的新、快、全、深,确实有它的好处,但硬币的反面,丧失了「通过读这个动作,冲刷大脑神经网络的体验过程」,总觉得那些「道理」和「知识」只在我的大脑表面「趴着」,一阵风就能把它们吹走。 最近摸索的解法,给自己设原则:每天必须读一小时纸书。 让自己「慢」下来,重新进入读的「浸泡感」当中,时不时会沉浸其中,一抬头,一本书已经读完了,再去与AI 对话讨论该书,快慢相合,感觉那些「道理」又重新长在脑子里了。 诸君可以一试。
中文
75
105
892
124.5K
techQuicker
techQuicker@kinsonwu08·
@chaosflutt28952 用hammerspoon来调用eleventlabs的api,就可以自己做一个输入法,就几十行lua代码就够了,每月有10k免费的额度。
中文
0
0
1
58
chaosflutter
chaosflutter@chaosflutt28952·
尝试了一下各种 AI 语音输入法,个人感受,上手体验最好的是 Typeless,不过只有一个月的 Pro Trial,过后一年要 144 美元,年付一个月 12 美元。 但刚刚用了一下 Mac 自带的 Dictation 语音输入,体验并不差,中文的识别准确率和速度都很 OK,查了数据,准确率大概 95%,和我体感差不多,感觉够用了。
chaosflutter tweet media
中文
2
0
4
1.1K
赖叔 | LaiShu.ai
赖叔 | LaiShu.ai@hiheimu·
发现一个 Antigravity + Obsidian有意思的玩法: 把 ChatGPT 的个人记忆导出到Obsidian本地 再让 Antigravity 添加新增的记忆 形成新的个人文档 这不就是数字分身本地化了吗? 顺便让他生成了一个工作状态图,比真人帅,哈哈 你们还有什么Antigravity + obsidian的好玩玩法吗? ChatGPT个人记忆导出方法: x.com/hiheimu/status…
赖叔 | LaiShu.ai tweet media赖叔 | LaiShu.ai tweet media
赖叔 | LaiShu.ai@hiheimu

为什么一定要 Obsidian + Claude Code? Obsidian + Antigravity 也不错啊 我现在习惯直接在 chat 里随手记 让它自动归档到 Obsidian 比正经打开编辑器写笔记舒服多了 你们还有什么好的用法吗?感觉这块信息差还挺大的

中文
1
2
40
4.4K
techQuicker
techQuicker@kinsonwu08·
@kevinma_dev_zh 我使用icloud同步,会有一点延迟,但是不影响使用,不过要注意obsidian插件不要装太多。
中文
0
0
0
54
Kevin Ma
Kevin Ma@kevinma_dev_zh·
大家的 Obsidian 都是用什么同步方案呀?我是 Mac 和 iOS,目前了解到的付费方案有官方的,免费方案有 iCloud 和 Git,不知道体验和稳定性怎么样
中文
130
0
77
33K
techQuicker
techQuicker@kinsonwu08·
@billtheinvestor 别瞎吹开源模型了,和商业的闭源模型在实际应用中的差距非常大。
中文
0
0
0
569
Bill The Investor
Bill The Investor@billtheinvestor·
看看即将发布的苹果 M5 Ultra有多强!M5 Ultra(512GB 统一内存)本地跑当下最强开源模型,对比 Claude 水平: MiniMax M2.5 → ≈ Claude 4.6 Sonnet(SWE-Bench ≈80%,效率超高) DeepSeek V3.2 → ≈ Claude 4.5 Opus(数学/编码经常反超) GLM-5 → ≈ Claude 4.5 Opus(代理任务接近4.6) Kimi K2.5 → ≈ Claude 4.5 Opus(工具/自主性很多场景胜出) 零延迟 + 完全隐私 + 无API费用。本地AI在Mac上已接近Claude云端实力! 苹果+中国开源模型要截胡美国前三大AI企业?
中文
32
15
117
47.2K
chaosflutter
chaosflutter@chaosflutt28952·
这个 TTS 库挺好用的,底层用的是微软 Edge 的 TTS 服务,免费并且很稳定,我使用了大半年了,没出问题。 各类云服务比如阿里云/火山引擎的 TTS API 都挺贵的,如果你只是个人项目,或者前期做产品验证,涉及到 TTS 服务,可以考虑先使用这个库。 github.com/rany2/edge-tts
中文
2
1
4
923
techQuicker
techQuicker@kinsonwu08·
@frankyluan amd哪来的产能,没有自己的工厂,都是别人生产的呀。
中文
1
0
1
605
高买低卖的神
高买低卖的神@frankyluan·
meta 和amd的事 金老师应该是又说对了 需求可能要给amd产能都要吃掉了。
中文
4
1
24
12.7K
techQuicker
techQuicker@kinsonwu08·
@lidangzzz 关键点是现场表演还是录播的问题,这得问现场观众才行。
中文
0
0
4
3.3K
techQuicker
techQuicker@kinsonwu08·
@GitHub_Daily 测试了一下,这个软件连麦克风权限都没设定好,无法正常使用。
中文
0
0
0
259
GitHubDaily
GitHubDaily@GitHub_Daily·
很多语音输入工具,要联网才能用,隐私问题让人不太放心,想找个完全本地运行的语音转文字工具不太容易。 最近偶然在 GitHub 上看到 Pindrop 这个开源项目,专为 macOS 打造的 AI 语音输入工具,完全离线运行,隐私数据不会离开你的 Mac。 基于 Apple 的 WhisperKit 技术,针对 Apple 芯片优化,在 M 系列芯片上转录速度比通用 Whisper 快 2-3 倍,而且全程使用 Swift 和 SwiftUI 原生开发。 GitHub:github.com/watzon/pindrop 支持全局快捷键操作,按一下开始录音,再按一下停止并转录,转录结果自动复制到剪贴板,还能直接插入到光标位置。 提供多种模型尺寸选择,从最快的 Tiny(75MB)到最准确的 Large(3GB),并内置转录历史记录,支持搜索和导出。 另外还提供自定义词典功能,可以添加专业术语或人名,提高转录准确度,甚至支持接入 OpenAI 兼容的 API 来优化转录文本。 如果你想要一个真正原生、快速、注重隐私的 Mac 语音输入工具,Pindrop 值得一试。
GitHubDaily tweet media
中文
11
33
219
22.8K
techQuicker
techQuicker@kinsonwu08·
@KKaWSB 自从鼓励进攻和三分球以后,整个联盟的得分像泡沫一样层层上升。但实际上,整体战术和球员的表现和以前差太多了。
中文
0
0
2
4.7K
KK.aWSB
KK.aWSB@KKaWSB·
评语:现在的 NBA 从上到下都烂透了。还记得以前扣篮大赛是必看节目吗?这就是今天的冠军扣篮: x.com/NBA/status/202…
中文
147
6
232
311.6K
techQuicker
techQuicker@kinsonwu08·
@cryptonerdcn 还是使用苹果的本地语音更安全,spokenly的本地模型应该也可以
中文
0
0
2
306
NerdC
NerdC@cryptonerdcn·
赶紧停用typeless!它官网自称(如图)零数据保留,输入历史只存你的机器。但实际上所有语音都要传到他们服务器里,还会: 1. 读你键盘输入 2. 读你剪贴板 3. 读你屏幕 明确写出来会有哪些敏感操作,倒也不是不能接受。但官网上明目张胆的说谎是什么意思?
NerdC tweet media
げれげれ@medmuspg

【注意喚起】音声入力アプリ「Typeless」をリバースエンジニアリングした結果、かなり深刻なプライバシーリスクが見つかったので共有します。 ■ 結論から Typelessは「On-device history」「Zero data retention」を謳っていますが、実際にはすべての音声データがAWS(米国オハイオ)のサーバーに送信されて処理されています。ローカルの音声認識モデルは一切入っていません。 それだけなら「クラウドSTTサービス」として普通ですが、問題は音声以外に収集しているデータの範囲です。 ■ 何を調べたか macOS上でTypeless v0.9.3のバイナリ解析、ネットワーク通信調査、ローカルDB解析、ネイティブライブラリの文字列解析を実施しました。 ■ 確認された事実 1. 音声処理は100%クラウド アプリ内にWhisper等のSTTモデルは存在せず、音声はOpusで圧縮後、WebSocket(wss://api.typeless.com/ws/rt_voice_flow)経由でAWS us-east-2のサーバーにリアルタイム送信されます。 api.typeless.com…565501648.us-east-2.elb.amazonaws.com 公式プライバシーポリシーにも「processed in real time on our cloud servers」と書いてあるので嘘ではないのですが、マーケティングの「On-device」という表現は履歴保存に限定されており、かなりミスリーディングです。 2. 音声以外にも広範なデータを収集 ローカルのSQLiteデータベースとネイティブライブラリの解析で、以下のデータ収集を確認しました: ・ 閲覧中のWebサイトの完全URL(Gmail、Google Docs等も記録) ・ フォーカス中のアプリ名、ウィンドウタイトル ・ 画面上のテキスト(アクセシビリティAPIで再帰的に収集する「collectVisibleTexts」関数) ・ クリップボードの読み書き(パスワードマネージャのTransientTypeも処理可能) ・ CGEventTapによるシステムレベルのキーボード入力監視 ・ ブラウザのDOM要素情報(Safari, Chrome, Edge, Firefox, Brave対応) ・ ユーザーがテキストを編集した内容(TrackEditTextService → sendTrackResultToServer) 3. ローカルDBに個人情報が平文保存 typeless.dbに音声認識結果のテキスト、閲覧URL、アプリ情報が平文で保存されています。「Zero data retention」を謳いながら、ローカルには全て残っています。音声ファイル(.ogg)も削除されずに残存。 4. 過剰な権限要求 音声入力ツールなのに、マイクに加えて画面録画、カメラ、Bluetooth、アクセシビリティの権限を要求します。スクリーンショット機能も内蔵されています。 5. 会社の透明性がほぼゼロ ・ 利用規約・プライバシーポリシーに法人名の記載なし ・ 所在地は「サンフランシスコ郡、CA」(利用規約の管轄地のみ) ・ WHOISは非公開(GoDaddy + Cloudflare) ・ SOC2、ISO27001等のセキュリティ監査の記載なし ・ 連絡先は hello@typeless.com のみ ■ 技術的な根拠(再現可能) 以下のコマンドで誰でも確認できます: # ネットワーク通信先 nslookup api.typeless.com # app.asar内のAPI URL strings /Applications/Typeless.app/Contents/Resources/app.asar | grep "api.typeless.com" # WebSocket通信プロトコル strings /Applications/Typeless.app/Contents/Resources/app.asar | grep "rt_voice_flow" # キーボード監視のネイティブライブラリ strings /Applications/Typeless.app/Contents/Resources/lib/keyboard-helper/build/libKeyboardHelper.dylib | grep -i "key pressed" # 画面テキスト収集 strings /Applications/Typeless.app/Contents/Resources/lib/context-helper/build/libContextHelper.dylib | grep -i "collectVisibleTexts" # ローカルDBの中身 sqlite3 ~/Library/Application\ Support/Typeless/typeless.db ".schema history" ■ 何がまずいのか CGEventTap(キーボード監視) + アクセシビリティAPI(画面テキスト収集) + クリップボードアクセス。この3つの組み合わせは技術的にキーロガーと同等の能力を持ちます。 これを運営法人が不明なサービスに許可しているということです。 音声入力の精度向上のためにコンテキスト(使用中のアプリや入力フィールドの情報)を取得すること自体は合理的な設計です。しかし、それをクラウドに送信する場合、運営の信頼性とセキュリティ体制が問われます。法人名すら公開していない会社にその信頼を置けるかは、各自で判断してください。 ■ 代替手段 完全ローカルで動作する音声入力ツールは存在します: ・ Whisper.cpp / MLX Whisper(OSS、完全ローカル、無料) ・ macOS標準の音声入力(Apple Silicon上でオンデバイス処理) ・ Superwhisper(Whisperベース、Mac向け、ただし要検証) ■ まとめ ・ Typelessの音声認識は100%クラウド処理(ローカルモデルなし) ・ 音声以外にも画面テキスト・URL・キーボード入力を収集可能な技術基盤 ・ 運営法人が不透明(法人名・所在地の公開なし) ・ セキュリティ監査の証拠なし 利用中の方はリスクを認識した上で判断してください。少なくともLittle Snitch等でネットワーク通信を監視することを推奨します。 #typeless

中文
25
7
43
50.7K
Marvix
Marvix@nanshanjukr·
核心结论 Typeless宣称具备“设备端历史记录”和“零数据保留”特性,但实际上所有语音数据都被发送到美国俄亥俄州的AWS服务器进行处理。本地没有任何语音识别模型。 如果仅此而已,它只是一个普通的“云端语音转文字服务”。问题在于其收集的数据范围远超语音本身。 调查内容 在macOS上对Typeless v0.9.3进行了二进制分析、网络通信调查、本地数据库分析以及原生库字符串分析。 已确认的事实 1. 语音处理100%在云端 应用内不存在Whisper等任何STT模型。语音经Opus压缩后,通过WebSocket(wss://api.typeless.com/ws/rt_voice_flow)实时发送至AWS us-east-2区域的服务器。 api.typeless.com565501648.us-east-2.elb.amazonaws.com 其官方隐私政策中确实写有“在我们的云端服务器实时处理”,因此不算说谎。但其营销中使用的“设备端”表述仅限于历史记录保存,具有相当大的误导性。 2. 收集语音之外的广泛数据 通过分析本地SQLite数据库和原生库,确认其收集以下数据: - 正在浏览的网站完整URL(包括Gmail、Google Docs等) - 当前聚焦的应用名称、窗口标题 - 屏幕上的文本(通过无障碍API递归收集的 `collectVisibleTexts` 函数) - 剪贴板的读写(甚至能处理密码管理器的TransientType) - 通过CGEventTap进行的系统级键盘输入监控 - 浏览器DOM元素信息(支持Safari、Chrome、Edge、Firefox、Brave) - 用户编辑的文本内容(TrackEditTextService → sendTrackResultToServer) 3. 本地数据库明文存储个人信息 `typeless.db` 中明文保存着语音识别结果文本、浏览URL、应用信息。一边宣称“零数据保留”,一边在本地留存了所有数据。语音文件(.ogg)也未被删除而残留。 4. 过度索取权限 作为一个语音输入工具,除了麦克风,还要求屏幕录制、摄像头、蓝牙、无障碍权限。内部还集成了截图功能。 5. 公司透明度几乎为零 - 服务条款和隐私政策中未提及法人名称。 - 地址仅写“加利福尼亚州旧金山郡”(仅作为服务条款的管辖地)。 - WHOIS信息为隐私保护状态(GoDaddy + Cloudflare)。 - 无SOC2、ISO27001等安全审计的说明。 - 唯一联系方式是 [email protected]。 技术依据(可复现) 任何人都可以通过以下命令进行验证: ```bash # 网络通信目的地 nslookup api.typeless.com # app.asar 内的API URL strings /Applications/Typeless.app/Contents/Resources/app.asar | grep "api.typeless.com" # WebSocket通信协议 strings /Applications/Typeless.app/Contents/Resources/app.asar | grep "rt_voice_flow" # 键盘监控的原生库 strings /Applications/Typeless.app/Contents/Resources/lib/keyboard-helper/build/libKeyboardHelper.dylib | grep -i "key pressed" # 屏幕文本收集 strings /Applications/Typeless.app/Contents/Resources/lib/context-helper/build/libContextHelper.dylib | grep -i "collectVisibleTexts" # 本地数据库内容 sqlite3 ~/Library/Application\ Support/Typeless/typeless.db ".schema history" ``` 问题所在 CGEventTap(键盘监控)+ 无障碍API(屏幕文本收集)+ 剪贴板访问。这三者的组合在技术上具备了与键盘记录器同等级的能力。 而用户正在将这些权限授予一个运营主体不明的服务。 为了提升语音输入精度而获取上下文信息(如正在使用的应用、输入框信息)本身是合理的设计。但当这些信息被发送到云端时,运营方的可信度和安全体系就至关重要。对于一家连法人名称都不公开的公司,是否值得托付这份信任,请各位自行判断。 替代方案 存在完全在本地运行的语音输入工具: - Whisper.cpp / MLX Whisper(开源,完全本地,免费) - macOS 内置语音输入(在Apple Silicon芯片上为设备端处理) - Superwhisper(基于Whisper,面向Mac,但需自行验证) 总结 - Typeless的语音识别100%依赖云端处理(无本地模型)。 - 其技术架构具备收集语音之外屏幕文本、URL、键盘输入的能力。 - 运营主体不透明(未公开法人名称及地址)。 - 无安全审计证据。 正在使用的用户请在充分认识风险后做出
げれげれ@medmuspg

【注意喚起】音声入力アプリ「Typeless」をリバースエンジニアリングした結果、かなり深刻なプライバシーリスクが見つかったので共有します。 ■ 結論から Typelessは「On-device history」「Zero data retention」を謳っていますが、実際にはすべての音声データがAWS(米国オハイオ)のサーバーに送信されて処理されています。ローカルの音声認識モデルは一切入っていません。 それだけなら「クラウドSTTサービス」として普通ですが、問題は音声以外に収集しているデータの範囲です。 ■ 何を調べたか macOS上でTypeless v0.9.3のバイナリ解析、ネットワーク通信調査、ローカルDB解析、ネイティブライブラリの文字列解析を実施しました。 ■ 確認された事実 1. 音声処理は100%クラウド アプリ内にWhisper等のSTTモデルは存在せず、音声はOpusで圧縮後、WebSocket(wss://api.typeless.com/ws/rt_voice_flow)経由でAWS us-east-2のサーバーにリアルタイム送信されます。 api.typeless.com…565501648.us-east-2.elb.amazonaws.com 公式プライバシーポリシーにも「processed in real time on our cloud servers」と書いてあるので嘘ではないのですが、マーケティングの「On-device」という表現は履歴保存に限定されており、かなりミスリーディングです。 2. 音声以外にも広範なデータを収集 ローカルのSQLiteデータベースとネイティブライブラリの解析で、以下のデータ収集を確認しました: ・ 閲覧中のWebサイトの完全URL(Gmail、Google Docs等も記録) ・ フォーカス中のアプリ名、ウィンドウタイトル ・ 画面上のテキスト(アクセシビリティAPIで再帰的に収集する「collectVisibleTexts」関数) ・ クリップボードの読み書き(パスワードマネージャのTransientTypeも処理可能) ・ CGEventTapによるシステムレベルのキーボード入力監視 ・ ブラウザのDOM要素情報(Safari, Chrome, Edge, Firefox, Brave対応) ・ ユーザーがテキストを編集した内容(TrackEditTextService → sendTrackResultToServer) 3. ローカルDBに個人情報が平文保存 typeless.dbに音声認識結果のテキスト、閲覧URL、アプリ情報が平文で保存されています。「Zero data retention」を謳いながら、ローカルには全て残っています。音声ファイル(.ogg)も削除されずに残存。 4. 過剰な権限要求 音声入力ツールなのに、マイクに加えて画面録画、カメラ、Bluetooth、アクセシビリティの権限を要求します。スクリーンショット機能も内蔵されています。 5. 会社の透明性がほぼゼロ ・ 利用規約・プライバシーポリシーに法人名の記載なし ・ 所在地は「サンフランシスコ郡、CA」(利用規約の管轄地のみ) ・ WHOISは非公開(GoDaddy + Cloudflare) ・ SOC2、ISO27001等のセキュリティ監査の記載なし ・ 連絡先は hello@typeless.com のみ ■ 技術的な根拠(再現可能) 以下のコマンドで誰でも確認できます: # ネットワーク通信先 nslookup api.typeless.com # app.asar内のAPI URL strings /Applications/Typeless.app/Contents/Resources/app.asar | grep "api.typeless.com" # WebSocket通信プロトコル strings /Applications/Typeless.app/Contents/Resources/app.asar | grep "rt_voice_flow" # キーボード監視のネイティブライブラリ strings /Applications/Typeless.app/Contents/Resources/lib/keyboard-helper/build/libKeyboardHelper.dylib | grep -i "key pressed" # 画面テキスト収集 strings /Applications/Typeless.app/Contents/Resources/lib/context-helper/build/libContextHelper.dylib | grep -i "collectVisibleTexts" # ローカルDBの中身 sqlite3 ~/Library/Application\ Support/Typeless/typeless.db ".schema history" ■ 何がまずいのか CGEventTap(キーボード監視) + アクセシビリティAPI(画面テキスト収集) + クリップボードアクセス。この3つの組み合わせは技術的にキーロガーと同等の能力を持ちます。 これを運営法人が不明なサービスに許可しているということです。 音声入力の精度向上のためにコンテキスト(使用中のアプリや入力フィールドの情報)を取得すること自体は合理的な設計です。しかし、それをクラウドに送信する場合、運営の信頼性とセキュリティ体制が問われます。法人名すら公開していない会社にその信頼を置けるかは、各自で判断してください。 ■ 代替手段 完全ローカルで動作する音声入力ツールは存在します: ・ Whisper.cpp / MLX Whisper(OSS、完全ローカル、無料) ・ macOS標準の音声入力(Apple Silicon上でオンデバイス処理) ・ Superwhisper(Whisperベース、Mac向け、ただし要検証) ■ まとめ ・ Typelessの音声認識は100%クラウド処理(ローカルモデルなし) ・ 音声以外にも画面テキスト・URL・キーボード入力を収集可能な技術基盤 ・ 運営法人が不透明(法人名・所在地の公開なし) ・ セキュリティ監査の証拠なし 利用中の方はリスクを認識した上で判断してください。少なくともLittle Snitch等でネットワーク通信を監視することを推奨します。 #typeless

中文
14
19
134
43.8K
techQuicker
techQuicker@kinsonwu08·
@littlegoodjack 输入法现在是最大的安全漏洞,可惜很多人还没有意识到。
中文
0
0
1
1.1K
小克 🌤
小克 🌤@littlegoodjack·
有人逆向工程 Typeless ,認為可能有資安和隱私風險,並且公司資訊極不透明。 我想再說一次,Typeless 是真格基金(北京頂級創投)的天使投資項目,蠻有可能是中國出海產品。
げれげれ@medmuspg

【注意喚起】音声入力アプリ「Typeless」をリバースエンジニアリングした結果、かなり深刻なプライバシーリスクが見つかったので共有します。 ■ 結論から Typelessは「On-device history」「Zero data retention」を謳っていますが、実際にはすべての音声データがAWS(米国オハイオ)のサーバーに送信されて処理されています。ローカルの音声認識モデルは一切入っていません。 それだけなら「クラウドSTTサービス」として普通ですが、問題は音声以外に収集しているデータの範囲です。 ■ 何を調べたか macOS上でTypeless v0.9.3のバイナリ解析、ネットワーク通信調査、ローカルDB解析、ネイティブライブラリの文字列解析を実施しました。 ■ 確認された事実 1. 音声処理は100%クラウド アプリ内にWhisper等のSTTモデルは存在せず、音声はOpusで圧縮後、WebSocket(wss://api.typeless.com/ws/rt_voice_flow)経由でAWS us-east-2のサーバーにリアルタイム送信されます。 api.typeless.com…565501648.us-east-2.elb.amazonaws.com 公式プライバシーポリシーにも「processed in real time on our cloud servers」と書いてあるので嘘ではないのですが、マーケティングの「On-device」という表現は履歴保存に限定されており、かなりミスリーディングです。 2. 音声以外にも広範なデータを収集 ローカルのSQLiteデータベースとネイティブライブラリの解析で、以下のデータ収集を確認しました: ・ 閲覧中のWebサイトの完全URL(Gmail、Google Docs等も記録) ・ フォーカス中のアプリ名、ウィンドウタイトル ・ 画面上のテキスト(アクセシビリティAPIで再帰的に収集する「collectVisibleTexts」関数) ・ クリップボードの読み書き(パスワードマネージャのTransientTypeも処理可能) ・ CGEventTapによるシステムレベルのキーボード入力監視 ・ ブラウザのDOM要素情報(Safari, Chrome, Edge, Firefox, Brave対応) ・ ユーザーがテキストを編集した内容(TrackEditTextService → sendTrackResultToServer) 3. ローカルDBに個人情報が平文保存 typeless.dbに音声認識結果のテキスト、閲覧URL、アプリ情報が平文で保存されています。「Zero data retention」を謳いながら、ローカルには全て残っています。音声ファイル(.ogg)も削除されずに残存。 4. 過剰な権限要求 音声入力ツールなのに、マイクに加えて画面録画、カメラ、Bluetooth、アクセシビリティの権限を要求します。スクリーンショット機能も内蔵されています。 5. 会社の透明性がほぼゼロ ・ 利用規約・プライバシーポリシーに法人名の記載なし ・ 所在地は「サンフランシスコ郡、CA」(利用規約の管轄地のみ) ・ WHOISは非公開(GoDaddy + Cloudflare) ・ SOC2、ISO27001等のセキュリティ監査の記載なし ・ 連絡先は hello@typeless.com のみ ■ 技術的な根拠(再現可能) 以下のコマンドで誰でも確認できます: # ネットワーク通信先 nslookup api.typeless.com # app.asar内のAPI URL strings /Applications/Typeless.app/Contents/Resources/app.asar | grep "api.typeless.com" # WebSocket通信プロトコル strings /Applications/Typeless.app/Contents/Resources/app.asar | grep "rt_voice_flow" # キーボード監視のネイティブライブラリ strings /Applications/Typeless.app/Contents/Resources/lib/keyboard-helper/build/libKeyboardHelper.dylib | grep -i "key pressed" # 画面テキスト収集 strings /Applications/Typeless.app/Contents/Resources/lib/context-helper/build/libContextHelper.dylib | grep -i "collectVisibleTexts" # ローカルDBの中身 sqlite3 ~/Library/Application\ Support/Typeless/typeless.db ".schema history" ■ 何がまずいのか CGEventTap(キーボード監視) + アクセシビリティAPI(画面テキスト収集) + クリップボードアクセス。この3つの組み合わせは技術的にキーロガーと同等の能力を持ちます。 これを運営法人が不明なサービスに許可しているということです。 音声入力の精度向上のためにコンテキスト(使用中のアプリや入力フィールドの情報)を取得すること自体は合理的な設計です。しかし、それをクラウドに送信する場合、運営の信頼性とセキュリティ体制が問われます。法人名すら公開していない会社にその信頼を置けるかは、各自で判断してください。 ■ 代替手段 完全ローカルで動作する音声入力ツールは存在します: ・ Whisper.cpp / MLX Whisper(OSS、完全ローカル、無料) ・ macOS標準の音声入力(Apple Silicon上でオンデバイス処理) ・ Superwhisper(Whisperベース、Mac向け、ただし要検証) ■ まとめ ・ Typelessの音声認識は100%クラウド処理(ローカルモデルなし) ・ 音声以外にも画面テキスト・URL・キーボード入力を収集可能な技術基盤 ・ 運営法人が不透明(法人名・所在地の公開なし) ・ セキュリティ監査の証拠なし 利用中の方はリスクを認識した上で判断してください。少なくともLittle Snitch等でネットワーク通信を監視することを推奨します。 #typeless

中文
18
26
175
35.1K
Jesse | GATE
Jesse | GATE@Jesse_GateLive·
@chaoge_btc 有意思,这么看manus完胜啊,其他的都有逻辑问题
中文
3
0
4
10.5K
超哥BTC
超哥BTC@chaoge_btc·
我想去洗车,洗车店离我家只有50米,走几步就到了,你说我还值得开车去吗?
超哥BTC tweet media
中文
238
59
564
383.2K