Тёмный

Google推出有史以來最強大的AI? Gemini 為何一上架就惹議? 圖像生成瑕疵源自「黑猩猩事件」?【TODAY 看世界|小發明大革命】 

The World TODAY
Подписаться 540 тыс.
Просмотров 136 тыс.
50% 1

#Google 在2月初推出自家的多模態 #AI(multimodal AI model) #Gemini ,沒想到網友測出一堆包。像是要求Gemini生成維京人的影像,卻跑出一堆黑人,想要二戰的德國士兵,卻跑出黃種人。Google搞這個AI搞這麼久,卻出現這些重大缺陷,不只導致母公司 Alphabet 股價一度下跌超過4%,損失慘重,讓Google只好暫停相關功能。這到底是出了什麼問題,訓練AI遇到什麼瓶頸了嗎?
快來測:2024二月的看世界月考
u.lin.ee/eNm26...
🌏 鎖定 LINE TODAY 看片分類 ⇨ 原創節目 ⇨ TODAY看世界,天天帶你秒懂世界大小事:u.lin.ee/N8pYf...
訂閱 LINE TODAY 官方帳號,全球脈動不漏接
lin.ee/OKm23kXh

Опубликовано:

 

11 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 261   
@MSSMusChaos
@MSSMusChaos 5 месяцев назад
提醒一下,封面圖上面的 Gemini 的 Logo 不是 Google 的,而是一個電子貨幣交易平台。 編輯:已經更改了,謝謝 Today 團隊
@leoyli
@leoyli 5 месяцев назад
剛看到也傻眼
@lialan4218
@lialan4218 5 месяцев назад
o lol
@wu8449
@wu8449 5 месяцев назад
估計用AI初剪或文案丟AI自動找素材的,也不校搞真傻眼
@channikitaa
@channikitaa 5 месяцев назад
是的 剛剛還想說這個Gemini 和google 有什麼關係。。
@libo8318
@libo8318 5 месяцев назад
笑死了😂😂😂
@xh3260
@xh3260 5 месяцев назад
生成式AI本身是很中立的 餵什麼資料進去,就會輸出什麼結果 但是為了不讓AI教用戶怎麼沙人、怎麼做詐蛋等等 就會用"工人智慧",讓工程師去想辦法過濾這些資料 並叫AI輸出比較"政治正確"的結果 --- 只能說,不論科技如何進步 人類固有的那份"惡"還是會持續存在
@clarissaqw1468
@clarissaqw1468 5 месяцев назад
正解!我有份训练AI 回复的兼职。如果对方问一些犯法的问题本来就要规避。至于政治的问题都要看该审核员的政治立场😅真的训练不了这种很不客观的问题
@sonja1983
@sonja1983 5 месяцев назад
應該說本來製作訓練資料時用的就是工人智慧,目前只有unsupervised learning 的技術(包含self-supervised learning )不需要訓練資料,而單純只使用這種技術目前在QA系統上效果並不是很好…。
@yehisaac4133
@yehisaac4133 5 месяцев назад
很可惜,不然我也想製作生化毒物來報仇
@angel841119
@angel841119 5 месяцев назад
宗翰最近走一個荒島求生的浪人形象嗎 哈哈哈哈哈
@Williamwiliam
@Williamwiliam 5 месяцев назад
感覺一個月沒洗澡,樣貌潦草
@user-eb5ve2zq7y
@user-eb5ve2zq7y 5 месяцев назад
「正確」這件事情本來就不存在一致的客觀標準,根據不同的時代、文化脈絡、立場等因素都會有各自認為正確的答案,硬要「灌輸AI何謂正確」這件事情,本身就是一種偏見。
@ACC7767
@ACC7767 5 месяцев назад
不過連事實都錯了,這個就是水平真的不好
@ivanagyro
@ivanagyro 5 месяцев назад
不特別去灌輸,那也只是複製輸入的資料的偏見,就如同 2015 的誤判為黑猩猩事件一樣。 刻意灌輸是一種人為選擇,不去灌輸同樣也是一種人為選擇。
@deanding90
@deanding90 5 месяцев назад
歷史事實跟歷史解釋分一下。
@SeniorChung
@SeniorChung 5 месяцев назад
把Gemini跟文心一言放一起比較並不準確,前者是訓練資料的問題,後者被懷疑根本是套皮不是真AI 審稿可能要再做充足一些
@charliechen8562
@charliechen8562 5 месяцев назад
這集審稿是真的爛,趕鴨子上架的一集新聞
@nanman_chief
@nanman_chief 5 месяцев назад
舉例的重點是在說明訓練資料的影響,這剛好證明了文心一言用的訓練資料或是模型本身來自美國,即便換了皮還是能透過產出結果知道原產地,本質的問題是相同的,我不認為影片的稿子有任何問題,有問題的是台灣人看到中國的東西老愛抓狂
@user-su5alapa
@user-su5alapa 5 месяцев назад
封面Logo圖錯了
@haopingfang3872
@haopingfang3872 5 месяцев назад
人工智慧的訓練內容本來就是用工人智慧篩選出來的 不然要怎麼讓人工智慧像人類呢..XD 又要AI像人又要AI做出不像一般人類的政確判斷 只能送他們一句話: "你搞得我好亂啊"
@user-pn5kz1ll9w
@user-pn5kz1ll9w 5 месяцев назад
完全同意😂 根本就是人類自己有病 還要AI假裝沒看到
@semian8018
@semian8018 5 месяцев назад
是阿,被政確的人寫出政確的AI,會被不想政確的人罵太政確,反之如此
@aaaac4260
@aaaac4260 5 месяцев назад
網路上的訊息本來就是真真假假,價值觀也沒有絕對,還是訓練自己有獨立思考判斷能力、不走極端⋯⋯更重要!
@D560411
@D560411 5 месяцев назад
系統會錯誤 幾乎都是人為的 畢竟你給他麵粉 他生不出牛肉給你 但你設定麵粉就是牛肉 那他就能給你
@Sakuraba_Izayoi
@Sakuraba_Izayoi 5 месяцев назад
讓我想到一個作者只想要一碗不帶筷子的湯麵,但無論如何都會生成有筷子的拉麵圖。 XD
@Torridddd
@Torridddd 5 месяцев назад
這個台灣有耶 因為可以連網 我都拿來問一些比較最近的問題 我覺得ai不需要有什麼立場 對我來說就是一個科技工具而已
@user-rc9yq1bj5t
@user-rc9yq1bj5t 5 месяцев назад
價值觀是人在判斷的 AI只是生成工具
@user-qb6hp4qc6v
@user-qb6hp4qc6v 5 месяцев назад
前一版的BARD很人性化像瑕疵小隊有自我想法,且會聰明校正。自己用的體感上很多回答答案和工作問題分析不輸給ChatGPT。 這一版是測試版與BARD合併,用起來整個像複製人聽從命令完整版,特端問題和生成只會跟你說無法回答,簡直換了個腦袋。且還會跑題產生錯誤回答問題。 有時候給它一點情感或者催化劑,才是真正讓AI自我學習與成長和判斷。斷然只能回和生成"規定"這還能稱作AI,看來谷哥也沒想像中遠見和聰明~~~
@Michael_LI
@Michael_LI 5 месяцев назад
7:09 不!你說錯了,這叫做「工人智慧」。
@ursowrongwrongisaid
@ursowrongwrongisaid 5 месяцев назад
第一次覺得 我能取代AI
@ritachen266
@ritachen266 5 месяцев назад
😂
@user-pn5kz1ll9w
@user-pn5kz1ll9w 5 месяцев назад
只要你還需要支付基本工資就永遠不可能😂
@user-qk6wd2ct9p
@user-qk6wd2ct9p 5 месяцев назад
@@user-pn5kz1ll9w 20美元 vs 2萬8台幣
@user-kp9gq4jc4y
@user-kp9gq4jc4y 5 месяцев назад
Ai才剛出生,等Ai長大了,你要能活到那時候才行
@aimie0912
@aimie0912 5 месяцев назад
你有情緒與靈魂,基本上已經無敵
@jqk851115
@jqk851115 5 месяцев назад
主持人今天髮型和鬍子好像航海王紅髮傑克😂
@samchiu4277
@samchiu4277 5 месяцев назад
其實AI真實反應現實狀況沒什麼問題啊,如果按照全球大數據的標準,有錢人就是白人較多,窮人就是黑人較多時,你的關鍵字不夠準確時,就會按照真實大數據的比例來呈現,事實是如此,哪有什麼政治正確或不正確的問題,有問題的是正義魔人的心吧,明明窮人都是黑人占多數,卻又不準人家真實呈現,又不去改變幫助這個世界來讓人種的貧富差距擴大,卻只會說得一嘴好政治正確的話才是噁心有問題的人吧
@lookout6074
@lookout6074 5 месяцев назад
人类现今很大的问题就是不愿面对现实,逃避现实,这个问题改变以后人类的文明才能达到更高的阶段。
@meantayo41
@meantayo41 5 месяцев назад
而且最好笑就是這些左派一邊在說黑人是白人至上主義的受害者,並且奴隸制度在200年後還一直在影響黑人群體。一邊又告訴AI「不准把黑人描繪成低收入」「開國先烈是黑人」,到底黑人是不是受害者?SJW搞得我好亂呀!根本腦洞大開到頭腦都掉出來了!😂
@jianguosyuy8428
@jianguosyuy8428 5 месяцев назад
老师今天是加入了葬爱家族吗?
@sirius_46
@sirius_46 5 месяцев назад
😂我快笑死
@JK-Jasmine
@JK-Jasmine 5 месяцев назад
如果要推出一個多功能的AI又要符合用戶的價值觀,我覺得AI在生成答案前,需要3-5次反問用戶更多延伸資訊來降低出錯率,而非由幕後的工程師添油加醋 如果要一個精準的結果,通常都需要用至少20個條件/形容詞 那些只給予有限的資源,卻要高質結果的用戶才需要被教育
@chenmark6031
@chenmark6031 5 месяцев назад
你不知道刁民都是又蠢又壞嗎?
@SoonTock
@SoonTock 5 месяцев назад
這節目我都用聽的居多,做其他事可以順便了解世界發生什麼事
@I_want_a_name
@I_want_a_name 5 месяцев назад
真实永远比正确要重要
@a980980
@a980980 5 месяцев назад
Gemini 小時候寫我的星座時 為了炫耀自己英文好都寫Gemini😂 現在這個詞開始被賦予其他意思了
@kevin9635
@kevin9635 5 месяцев назад
AI每件事情都給出3種答案,例如A黑人 B白人 C黃種人,讓使用者自己去區別。因為每件事情辯論時,常有3種角度,如此才客觀
@user-yu1hl1om7d
@user-yu1hl1om7d 5 месяцев назад
我覺得AI需要的是 正確的歷史資訊 以及多元的價值觀
@kevin-Wang233
@kevin-Wang233 5 месяцев назад
之前看到有立委在要求AI需要符合台灣價值與倫理道德,不知道之後泰德計畫會不會遇到一樣的事情。
@user-bd1fx5yp4b
@user-bd1fx5yp4b 5 месяцев назад
畢竟只是機器,如果不刻意調整,它只會產生客觀的"偏見",(基於輸入資料)所以要是輸出違反事實,那可能是取樣偏差(例如現在資料基本基於英語系),或是錯誤歸因(歷任精靈國王子都是尖耳朵,機器直接認為精靈國王子=尖耳朵),但這也不得不承認這就是大數據的客觀統計(目前的精靈國王子確實以尖耳朵為主)
@nanman_chief
@nanman_chief 5 месяцев назад
我認為AI不該審查,有時候我要寫點有關小朋友的東西,就被AI說是兒童剝削內容,但我只是要AI幫我寫國小學童家教的方案跟宣傳阿
@alberthuang3708
@alberthuang3708 5 месяцев назад
這集我以為宗翰也是AI
@smile8034
@smile8034 5 месяцев назад
我自己在工作上會寫一些小程式輔助自己的工作。寫程式的過程中就很明顯的意識到,很多時候程式有問題都是因為"人的判斷"充滿著各種不合邏輯跟反覆無常,所以程式自然無法給出人類想要的結果。遇到這種情況要問的問題不是怎麼寫程式才會正確,要先問我們的判斷有沒有邏輯
@user-kh6tx1ys9r
@user-kh6tx1ys9r 5 месяцев назад
宗瀚曬黑好好看!!!
@rainbowraychen6641
@rainbowraychen6641 5 месяцев назад
超帥的!
@习包子8964
@习包子8964 5 месяцев назад
你说的对❤
@user-kp9gq4jc4y
@user-kp9gq4jc4y 5 месяцев назад
最簡單的方式,只要知道提問人的成長背景和所有個資,就能給出符合提問人的答案。然後人類就不用有隱私了😂😂
@user-zl7lr3vh1w
@user-zl7lr3vh1w 5 месяцев назад
重要的是依據描述反應出結果,結果需盡可能與描述完全一致,未描述足夠的部分得有一定隨機性,並盡可能符合情境、貼近真實。
@lcsgoo
@lcsgoo 5 месяцев назад
這其實也表示Google確實有根是犯過的錯誤進行修正。
@playvideogames369
@playvideogames369 5 месяцев назад
台灣可以用啊
@user-dt9pw8cs3w
@user-dt9pw8cs3w 5 месяцев назад
給程式最基本的就是給“定義”,但是開發者的定義每個人都不同,AI只能是在(人)的定義下表達!😢😢😢 但若有天AI做出,超出人給的“定義”,那人類就準備戰爭吧~❤❤❤
@5566740293
@5566740293 5 месяцев назад
AI只需要回答問題的時候標註參考來源就好了,並且適當地給出相反看法的來源
@user-li6pq2ms2d
@user-li6pq2ms2d 5 месяцев назад
雖然 很不正確,但是好懷念南方公園黑人廚師講山東話的年代 ……
@clingclang2018
@clingclang2018 5 месяцев назад
怎麼換造型了😂
@todayppp
@todayppp 5 месяцев назад
我認為 AI 不需要反應正確的價值觀,現實狀況就是真實又很殘酷的, 我希望 AI 寧願反應真實客觀的資料也不要給 2 + 2 = 5 那樣背離事實的資料
@mike-jc8jl
@mike-jc8jl 5 месяцев назад
其實所謂的刻板印象就是由現實現實事件演化過來的
@ibn5100_sg
@ibn5100_sg 5 месяцев назад
AI不需要反應政確 但是要有提醒使用者這可能帶有偏見的機制 或是分級制度
@TheHughLiu
@TheHughLiu 2 месяца назад
重點是這個世界沒有正確的價值觀這種東西啊,只有多數人認為少數人應該要怎麼做的問題,所以「政確」之後就是大家討論出來(不見得每個人都認同)的「共同價值」,因此現在會發現,在開放的AI中,對「人」的生成總是困難重重,常常AI就跟你說他無法生成出相關的圖片……
@yi-rueichen7087
@yi-rueichen7087 5 месяцев назад
直接生成全膚色的CEO,使用者自己挑拉
@mysabahTV
@mysabahTV 5 месяцев назад
因为偏见是事实、答案是谎言、真话是歧视,所以AI变了人工白痴。😂
@SLedu3355
@SLedu3355 5 месяцев назад
用了幾個月覺得Gemini很好用,又不用花錢,還能直接導出google doc 十分方便
@ben21305
@ben21305 5 месяцев назад
最近的造型怎麼了.... 還我年輕版的宗翰
@akzholkadylbek9608
@akzholkadylbek9608 5 месяцев назад
封面错了
@TakoShrimp_o23
@TakoShrimp_o23 5 месяцев назад
工具不需要價值觀 需要的是事實正確
@evans3812
@evans3812 5 месяцев назад
@stranghead
@stranghead 5 месяцев назад
感覺就要像新世紀福音戰士裡面的MAGI三賢者系統那樣製作3種AI,一個輸出一個糾正一個監督,這樣才不會出現偏激的結論
@lpp3c
@lpp3c 4 месяца назад
我覺得AI的價值觀需要與時俱進,但人類自己對於政治正確的標準都還沒有共識,基本上靠人類強勢介入審查,並沒辦法解決問題。大概只能讓AI自己上網海巡,透過超大量分析全世界所有的新聞、貼文以及反饋、後續輿論效應,然後歸納出一個他自己認為的社會最大公約數。或是在回答的時候該怎樣聲明立場或是用字遣詞。
@C_Y_1893
@C_Y_1893 5 месяцев назад
AI生成出來的政治正確的答案被批評不符合現實,這反而側面證明了政治不正確仍然是現實世界的現狀。 如果現在的社會像某些人說的「已經夠平等了」,我們看到AI給的答案應該不會覺得奇怪才對吧?
@user-ee5mk4ii8q
@user-ee5mk4ii8q 5 месяцев назад
反過來說 政治正確根本不現實
@p_9388
@p_9388 5 месяцев назад
维京人是黑人不奇怪吗?
@luchentse7805
@luchentse7805 5 месяцев назад
笑死。那如果AI輸出的亞洲人全部變黑人這算正確還是不正確? 如果竄改歷史算正確那你跟中共差在哪?
@C_Y_1893
@C_Y_1893 5 месяцев назад
​@@user-ee5mk4ii8q 是呀,當年山洞的原始人應該做夢都想不到如今的人類可以隨意控制火焰吧。 所以我們也別用火了,「這不現實」。
@user-ee5mk4ii8q
@user-ee5mk4ii8q 5 месяцев назад
@@C_Y_1893 SJW都這麼愛想當然的嗎 難怪成天搞這些沒用的
@scryingten-144
@scryingten-144 5 месяцев назад
😂😂😂AI 回應:“這麼多個世紀以來地球上已知的生物裡是仍然未有制定劃一標準的價值觀,不要來煩我,凡(煩)人😠.你們凡人都未有制定劃一標準的價值觀,你們卻來考我?!pleaseeeee😂😂😂‘’
@leejens1524
@leejens1524 5 месяцев назад
我覺得要習慣的是人類 因為確實很多大企業老闆都是老白男 確實很多領補助的人是黑人黃種人 但人類覺得這是一種歧視 即使這些都是真的
@krush905
@krush905 5 месяцев назад
然後很多高管都變印度人了
@meantayo41
@meantayo41 5 месяцев назад
領補助的是黑人和南美洲移民,不是黃種人
@hanabi_noir
@hanabi_noir 5 месяцев назад
宗瀚哥的形象越來越二次元ㄟ
@Devil_Mumi
@Devil_Mumi 5 месяцев назад
越來越多「政確」的AI 出現 也是馬斯克現在最痛斥的 因為將來如果這些AI將覺醒主義納入在許多兒童用戶中的軟體中 然後持續被洗腦 可能這些孩子就會成為新一代新左膠 甚至男孩女孩都會跑去變性 所以我認為AI真的需要嚴格把關 甚至極端覺醒主義和極端保守主義不應該介入
@wowsean
@wowsean 5 месяцев назад
嗯,你裝了馬斯克的晶片沒?
@wowsean
@wowsean 5 месяцев назад
應該要用極右派論調來洗腦才對
@sonja1983
@sonja1983 5 месяцев назад
何謂正確的價值關?聽完以後覺得這是Gemini多樣性不足的問題,需要收集更多樣的資料來解決,另外通才跟專才哪個好本身尚未有個定論,目前要看領域才知道。
@kelvinlee3952
@kelvinlee3952 5 месяцев назад
模糊色情搜尋結果的開關
@deadfishyugor
@deadfishyugor 5 месяцев назад
因為乃哥真的戳
@funkyojo
@funkyojo 5 месяцев назад
6:39 世紀帝國歷史戰役?
@monkeyfire0915
@monkeyfire0915 5 месяцев назад
看完這篇才發現,原來就算是電腦還是很難做出正確的判斷呢
@Usersdfcfhb
@Usersdfcfhb 5 месяцев назад
會用大模型畫圖都應該不是工作需要吧。 我覺得google 應該先集中做好專門AI 。 解答各種和生產有關的問題。 畫圖這類工就是爭議多效益少。 即使結果用戶不滿意。 他們可以用專用畫圖AI去做。
@user-gp1bw3og4q
@user-gp1bw3og4q 5 месяцев назад
價值可以政確 但事實不會改變 這個鐵拳打在極左臉上 像是認為稱呼生理女性為女性是忽視跨性的不政確言論 但生理性別是事實
@C_Y_1893
@C_Y_1893 5 месяцев назад
阻止正確的價值成為事實 這不正是右派的偉大傑作嗎
@user-ee5mk4ii8q
@user-ee5mk4ii8q 5 месяцев назад
@@C_Y_1893 自以為自己能告訴天下蒼生甚麼叫正確的價值不是進步 只是自戀
@ZATA0123
@ZATA0123 5 месяцев назад
到現在你去問甚麼是女人 他給不出回答 你說甚麼是男人 他不但給得出來 還可以給出相對雌性人類的回答
@shutupandeaturgrass8872
@shutupandeaturgrass8872 5 месяцев назад
​@@user-ee5mk4ii8q你正好形容右胶,这不是右胶保守派千百年来一直在做的事?!自我为中心,自恋啊,自以为自己认为的价值观就是王道。每个人的恋爱对象一定要和自己一样是“异性”,这就是一种自恋咯 人家爱怎样选恋爱对象,是成年人相互喜爱,但是就是有自恋的右胶要把自己的“喜好”强迫压在被人身上。
@shutupandeaturgrass8872
@shutupandeaturgrass8872 5 месяцев назад
​@@ZATA0123 有吗?还是AI没说,倒是你编的?
@ytbigfly
@ytbigfly 5 месяцев назад
我覺得在自主性AI誕生前,生成式Ai(人問Ai答)可能需要多一點提示型的過程,在生成結果前讓提問的人多輸入能縮小生成範圍的內容,都不輸入的話就只好在生成後說明這是現有資料能生成的廣泛型結果。 至於生成結果所反映出訓練資料多元性或人為調整的價值觀,我覺得就看提供Ai服務的機構有沒有提供生成後可再回饋的參數(可調整上次生成結果)或直接客服信箱(但應該需要人工判讀)之類的,讓使用者也能協助訓練,或許可以避開所謂「政確」的結果,而是產出符合提問者需求的結果。
@timmy61109
@timmy61109 5 месяцев назад
可能加入時間的觀念,說不定可以解決這個問題
@user-bq1hf3ou3g
@user-bq1hf3ou3g 5 месяцев назад
今天有點帥
@liyan727
@liyan727 5 месяцев назад
現在Gemini已經在台灣正式支援了 Android手機現在也可以決定要不要把Google assistant換掉
@Sutra.Root.
@Sutra.Root. Месяц назад
Gemini 明顯的受到了紅媒勢力的介入影響,竟然願意證實郭文貴的判決起訴事件,但是拒絕查證川普槍擊事件是否屬實,拒絕答覆川普的槍擊事件證實。
@user-vw1me7ib4d
@user-vw1me7ib4d 5 месяцев назад
可能這就是天網想毀滅人類的原因吧,太難搞了😅
@wow10895
@wow10895 5 месяцев назад
鄒宗翰也變太多了吧
@xiaotian01
@xiaotian01 5 месяцев назад
這也反應了歐美過分強調政治正確導致為什麼會迎來右派的反撲了,就像AI只是生成圖片大家都受不了了,如果深入在生活呢
@葉峻源
@葉峻源 5 месяцев назад
和音量一樣,政治正確調整鈕
@432v01
@432v01 5 месяцев назад
想要增進使用者的種族或性別意識,更好的做法應該是:當使用者的指令沒有明確指定種族或性別時,在生成結果之後,提示使用者是否要指定不同的種族或性別重新生成結果;或者也可以一次提供不同種族與性別的多個生成結果 這些做法都可以讓使用者意識到不同種族與性別的可能性,同時也不會有那種被硬塞意識形態的噁心感 至於使用者都已經指定要某種種族、或是基於歷史事實已經可以確定的情況下,生成結果仍然不符合,這就是純粹的錯誤,會為這種東西說話的一律判定為腦殘左膠
@meantayo41
@meantayo41 5 месяцев назад
左派的DEI不允許不政確的想法,基本上: 1. 白人都是壓迫者 2. 少數族裔特別是black and brown人都是受害者 3. 白男是最糟糕的壓迫者 4. Lgb很重要,但是T(變性人)才是最無上的等級 這些觀念完全不容挑戰,一有異議馬上被貼上「種族歧視」、「性別歧視」、「恐同」、「恐跨」等等的標籤
@jimmy_wong
@jimmy_wong 5 месяцев назад
每個人都是主觀,在現今主觀橫行的時代,要AI客觀輸出資料而不會觸犯別人的價值觀,根本不可能!
@user-hh4mz2bj7n
@user-hh4mz2bj7n 5 месяцев назад
我倒覺得,與其要求AI展現“正確”的價值觀,不如我們好好看看“現在”的價值觀。
@a0302angel
@a0302angel 5 месяцев назад
如果生成時提供細節 要求客戶勾選呢🤔
@jonrychen
@jonrychen 5 месяцев назад
這就和新聞要怎麼報很類似,應該給出正反兩方的資訊給使用者去選他“認為”正確的資訊,但使用該資訊也可能提供可能的影響。這不容易,但請開發人員去學一下哲學,訓練思辯,而不是鑽進寫code就只會輸出而不會思考人性。
@ShaneLeeTW
@ShaneLeeTW 5 месяцев назад
這次的造型好不一樣,有帥到!
@Howe·Sauce
@Howe·Sauce 5 месяцев назад
事实>价值观>观点
@user-of8fr8oy8y
@user-of8fr8oy8y 5 месяцев назад
照真實情況反應才是,不應該刻意粉飾太平
@clisom0010
@clisom0010 5 месяцев назад
最經典的,畫迴游的鮭魚會出現在海裡徜洋的生魚片
@robertnova6547
@robertnova6547 5 месяцев назад
煙燻魚會不會變成抽煙的魚😂
@jlliews3650
@jlliews3650 5 месяцев назад
让AI与真实的网络资料接轨,然后生成真实的人像图片不就行了,那有什么难的?
@user-gk6nu5st2h
@user-gk6nu5st2h 5 месяцев назад
有的“刻板印象”其实是“现实”或者“历史”。强行抹去事实假装一切正确并没有真正帮助到任何人,只是虚伪之人的自我安慰。至少要正视现实才有可能让未来更好吧。
@mstorymstory
@mstorymstory 5 месяцев назад
或許ai 應該針對細節再進一步詢問,而不是自已腦補
@hanchen2282
@hanchen2282 5 месяцев назад
通用的AI就一定會有立場不同的人看不慣,而且更可能的是同時無法滿足不同立場的人,導致立場相反的兩方都不滿意,我建議AI可以讓每個人都可以設定自己設定要的歧視,你可以設定歧視白人、歧視黑人、歧視同性戀、歧視異性戀、歧視肉食者、歧視素食者blahblah...只要給任何人平等歧視任何人的設定,那就是最平等的了XD
@SunnieWoo
@SunnieWoo 5 месяцев назад
💪🏻💪🏻⛽️⛽️
@mikomikoischabi35
@mikomikoischabi35 5 месяцев назад
哇靠封面圖錯了😅
@zgamer6689
@zgamer6689 5 месяцев назад
谷歌八成是请了sweet baby inc被坑了一手xD
@我是一粒米
@我是一粒米 5 месяцев назад
我覺得google 考慮的很慎重都有想進去,但是真的比不完吧,短短一行字,要生成你心中的圖片,應該是自己要多點描述能力表達,他又不是神,索取者自己可以更加用心
@user-sh3tu8st3v
@user-sh3tu8st3v 5 месяцев назад
答案在影片中已經提到了,功能性: 為了聊天設計的話,天馬行空提供不同的觀點比較有趣,也刺激使用者進行思考,畢竟思考是聊天的本質。 作為生產工具的話,就要提供在主流最正確的答案,等比例的參考大數據中的所有資料,否則它就失去了存在的價值,垃圾的歸宿就是垃圾桶。
@mostinfluential307
@mostinfluential307 5 месяцев назад
Gemini明明就在台灣上了
@m9413941
@m9413941 5 месяцев назад
AI出現以後,人類連提出詳細需求都不會了, 這跟慣老闆沒有分別
@dennislkf
@dennislkf 5 месяцев назад
你們的圖和文案也是ai寫的嗎?
@leterl8leterl829
@leterl8leterl829 5 месяцев назад
:要求畫……【主題】 AI:*經過邏輯分析,生成圖像 :完全不正確 AI:???
@Been-Yan
@Been-Yan 5 месяцев назад
進步主義的鐵拳🤣
@shutupandeaturgrass8872
@shutupandeaturgrass8872 5 месяцев назад
是被右胶滥用过了,才反过来的矫枉过正。如果右胶不把什么平台都拿来造恶,当成散播谎言,不实抹黑,地球是扁的,也不会有这么偏激的政治正确 看看Twitter就好,上面的右胶白人之上主义者就真的连“杀”这个词都挂嘴边了。 政治正确至少不会导致白人被歧视,被生命威胁恐吓。左胶的政治正确顶多就是烦人而已。 右胶的政治不正确是会制造对某群体的暴力行为。
@kennyfsTW
@kennyfsTW 5 месяцев назад
Gemini台灣早就也可以用了
@user-ek3yx7rt6z
@user-ek3yx7rt6z 5 месяцев назад
gemini台灣可以用啊,我用起來相同的問題跟GPT比起來感覺比較不會唬爛。而且從bard改名gemini後多了查核跟來源GOOGLE搜尋確認,雖然還是會唬爛但至少還能查他的來源有沒有根據。如果是bard時期就真的比GPT更唬爛。
@antoniokwh
@antoniokwh 5 месяцев назад
原来谷歌也开虚拟货币交易所了😂😂
@J637371
@J637371 5 месяцев назад
等做出不受意識形態影響的AI,那就是天網的誕生日了。
@Maydate1986
@Maydate1986 5 месяцев назад
我个认为那个,哪个种族比较穷,其实答案其实是没错,只是个人们接受不了的真实答案。事实上白人有钱白人居多,黑人不是太有钱,就是太穷,不会有中等。
Далее
Что думаете?
00:54
Просмотров 642 тыс.