壞的是誰?談機器學習與人臉辨識的善與惡/Benedict Evans

閱讀時間約 20 分鐘

人臉辨識是目前指標性的機器學習應用;它讓電腦網路能做很多過去做不到的事情,但也引發了許多關於隱私的爭議。甚至因為治理觀念的不同,這些技術讓世界各國發展出不同的用途和規範,逐漸形成了兩個不同的陣營。

早在1970到80年代初期,科技業就已經創造出一種革命性的新技術,讓政府和企業機構擁有了前所未有的能力,可以用來追踪、分析、和瞭解每個人的行為。
這種叫做「關聯式資料庫」的技術現在看來稀鬆平常,但它確實讓當時原本只涵蓋小範圍的資料庫可以彼此連結,成為涵蓋龐大範圍的資訊來源、創造出更多前所未有的應用。
對於這一點,當時的學者都表達了各種憂心、甚至寫了很多本書,例如:
總括來說,關聯式資料庫技術有兩個令人擔心的問題:
  • 這些資料庫可能包含不正確的資料、或是錯誤的假設;尤其某些社會偏見、或是帶有偏見的資料解讀方式,會無意中被編入資料庫中、甚至成為機器處理的規則。
  • 或許有人會建構並使用這些系統來做壞事。
換句話說,這類系統如果不能有效運作,我們會擔心;但如果真的可以運作,我們也同樣擔心,因為人們很難預料它的運作結果會是怎樣。
時間快轉到現在,對於人工智慧AI、尤其是人臉辨識方面的問題,我們也有相同的擔心;更縮小範圍來說,我們擔心的是「機器學習」,因為讓人臉辨識技術能夠實現的基礎,正是機器學習的能力。
而且同樣的,這種技術無論能不能如預期運作,我們都會擔心。所以,讓我們來看看這個問題到底有多大、我們到底需不需要擔心、以及我們之所以擔心的基本原因。
首先要看的是「人為錯誤」。

「好人」使用「壞資料」

過去我們在使用資料庫時,經常會犯一些人為錯誤,像是公家機關的電腦裡把你的名字寫錯,因而鬧出各種笑話;更慘的是,你改自己的名字恐怕比申請改電腦上的名字還容易。
更麻煩的是,如果你跟通緝犯同名,還可能被警察追捕、在機場被擋下來、甚至發生更麻煩的狀況。
最近的一則相關新聞,是美國有人選了「NULL」當做自己的車牌字號,結果全國所有找不到主人的罰單就統統跑到他們家去了。
這類故事反映了三種不同的問題:
  1. 系統中可能包含錯誤的資料(例如名字記錄錯誤);
  2. 系統中的資料處理設定有問題(例如沒有排除「NULL」之類可能造成問題的字、或是把某些正常的字眼判斷為「不雅」);
  3. 主管單位讓沒有經過訓練、不瞭解處理流程或架構、或是根本沒有經過授權的的人員操作系統,所以無法即時過濾並處理問題。
當然,所有的機構單位都可能碰到這種「早在電腦發明之前幾千年就已經存在」的問題。而有了資料庫之後,千奇百怪的錯誤更可能隨著技術的進步發生;而機器學習(Machine Learning,ML)誕生之後,也同樣帶來了各種各樣的搞砸方式,而這些還可能根本就是ML與生俱來的問題。
想像一下:假設你想開發一套「貓臉辨識系統」;傳統的方法是先建立「邏輯步驟」,例如開發辨識圖形輪廓、尖耳朵、眼睛、以及腿部的演算法或感測器,一共幾百種。結果最後常見的結果,就是把這些東西全部兜在一起之後,系統卻莫名其妙動不起來。
很多事情理論上很簡單,但實作起來卻超乎意料的困難。
有一些事情,對人類來說是舉手之勞,但我們很難把它量化、或是變成數學方程式(讓機器瞭解);但ML技術能將這類「邏輯問題」轉換成「統計問題」。
例如我們不需要自己把「如何識別X的照片」變成數學方程式,而是提供「10萬個X」和「10萬個非X」的例子給ML引擎,來「訓練」它去辨識X。
訓練完成之後,你只要給它一張照片,它就能告訴你照片上是不是X、或是「有多像X」。也就是說,不是由人類來告訴機器規則,而是讓機器根據「這是X」與「這不是X」的資料與答案,自己產生出規則。
資料來源:François Chollet
這樣的技術,可以解決包括人臉辨識在內的許多問題,但也帶來了兩類新的問題:
1. 訓練資料的正確性
首先,以這個例子來說,總共20萬筆的「X」與「非X」學習資料之中,到底是些什麼東西?你確定資料都很乾淨嗎?會不會有跟X根本無關的內容?
我很常舉的一個這類範例,是一個「識別皮膚癌照片」的系統。最常見的問題是,系統中不同膚色人種的資料樣本可能不完整,導致在識別不同人種的皮膚癌時發生誤判。
「恭喜你,你訓練出了一套『人工智慧直尺識別系統』,而不是癌症識別系統。」
更糟糕的是,醫師往往會在照片裡放一支尺,作為標示比例之用;如果所有「有癌症」的照片上都有一把尺,而「非癌症」的照片上都沒有,最後那支尺可能會變成比皮膚問題更明顯的特徵──恭喜你,你訓練出了一套「人工智慧直尺識別系統」,而不是癌症識別系統。
這個基本問題,在於ML系統並不瞭解自己看到的是什麼;它其實不知道什麼是正常、或是有癌症的皮膚,對於人種、膚色、性別、甚至是人還是動物,也根本沒有概念。
道理很簡單,就跟你的洗衣機也不知道「衣服是什麼」一樣。
即使是ML系統,也只是對資料進行統計和比較,並沒有比較「聰明」。所以要再問一次:你餵給它的資料是什麼?資料是怎麼挑選出來的?有什麼是挑選過程中可能沒有注意到的瑕疵?資料本身是不是就可能有誤導的嫌疑?
在訓練資料中,是不是出現了無關主題、也沒有統計價值,但可能影響判斷結果的東西?所有的「健康皮膚」照片都是在日光燈下拍攝的嗎?所有「不健康皮膚」的照片都是在LED燈下拍攝的嗎?人類可能不在意這些細節,但是笨笨的電腦都會把它們囫圇吞棗列入考量。
2. 「符合」如何定義?
現今的電腦和資料庫,常常會給我們「是/否」的答案。像是這輛車是贓車嗎?這張信用卡被盜刷了嗎?我的帳戶還有錢嗎?我訂的航班確認好了嗎?這個號碼的客戶名下有多少訂單?諸如此類的答案。
但對於ML系統來說,除了「是/否」之外,答案還有「或許是」、「或許不是」和「有可能」之類的好幾種選擇,因為它有「機率」的概念;而如果只有「是/否」的傳統系統介面將「或許是」顯示為「是」,就可能會出問題。
在最近的一些宣傳材料中,我們經常可以發現上述的兩個問題:資料處理人員用罪犯(只有罪犯)的臉部照片來訓練人臉辨識系統,然後找一個好人(為了避免「爭議」,通常找的是政治人物)的照片來辨識、問電腦是否有符合的罪犯資料。
令人意外的是,在較低的信賴區間設定下,系統往往會回答「有符合的資料」,代表這位政治人物「有可能」也是罪犯。
如果訓練ML時用了偏頗的資料集、準確度設定得太低,當然可能得出有問題的結果。
然而對於科學家來說,這樣的測試方式等於是在惡搞ML系統。因為訓練時刻意使用了偏頗的資料集、故意將準確度設定得太低,然後才會得出有問題的「符合」結果。
事實上,你也可以用貓的照片、或是菜頭的照片(不一定要用罪犯照片)來訓練ML系統;這時候你問電腦「請找出一顆最像這位立委的菜頭」,說真的,它也確實可以找出一顆來給你。
雖說是惡搞,但這種實驗並不是完全沒用的。許多人聽到「人工智慧」就以為它是「聰明」的;聽到「AI+數學+電腦」,就覺得「數學算出來的一定不會錯吧」;但這種惡搞證明了一件事:即使都照邏輯規則來做,結果仍然可能是錯的。
簡單的說,數學計算或許不會偏差,但原始資料是可能有偏差的;何況我們不只可以惡搞資料庫,要惡搞技術其實也沒那麼難。然而,許多公司正是在這種「可以惡搞」的基礎上設計了人臉辨識(和其他ML)系統,難怪會跑出無法預期的結果。
但廠商還是會跟採購的警察單位說:「這是人工智慧耶,不可能會錯的啦」。
對於ML系統來說,這些都是很基本的問題;而且要再強調一次的是,這些問題跟大家擔心的「個資處理方式」還談不上關係。即使是功能很強、能夠預測出機器可能失效的ML系統,也可能因為訓練期間只餵了特定廠商產品的資料,因而在實用時產生偏差。
這裡並不是要否定ML的價值:它確實可以識別出過去電腦無法識別的東西;但如果錯誤發生在資料庫端,結果還是可能出錯。
所以,我們必須瞭解ML系統如何運作,一來避免自己無心惡搞了它、也讓其他人知道它也可能出錯。ML就像緝毒犬一樣,找毒品的效率比人高得多,但我們不會只因為它疑似聞到毒品就將人定罪;何況現在狗的學習效率還比ML高。

「壞人」使用「好資料」

前面一直在談人臉辨識系統(或任何ML系統)判斷不正確時的狀況;但還有另外一個相反的問題,就是或許有人會建構一個結果準確的系統,卻將這些結果用在我們不喜歡的事物上。
人臉辨識系統(假設結果準確)就是個顯而易見的例子:它可以隔著路口拍攝你、辨識你,但多數時候你卻不能拿它怎麼樣。
說到這類大家不想要的應用,最近的例子都是中國在新疆地區使用的人臉辨識與監視技術;最近甚至有一份針對維吾爾人面貌辨識的研究論文引起了很多關注。其實,這些技術應用已經遍及整個中國,只是程度不一。
透過今年8月發布、厚達600頁的曠視科技(Megvii)公司上市募股說明書(PDF下載),我們可以看到一些相關梗概:Megvii是中國政府「智慧城市物聯網」的大型供應商之一;該公司表示,目前有106個中國城市是它的客戶,比2016年增加了30個。
Megvii旗下擁有1,500名研發人員,光是2019年上半年,就從相關業務中賺到了1億美元。總而言之,維穩控管也已經變成了一大商機。
不過Megvii沒有直接提到維穩,而是強調「公共安全」和「執法需要」;例如:
  • 讓警察能識別出路上一個忘了自己姓名地址的失智老人;
  • 自動調度大型辦公樓中的電梯;
  • 檢查獲得住房補貼的租戶是否非法轉租他們的公寓;
  • 建立允許進入幼兒園的人員白名單;
  • 讓銀行櫃檯人員查詢客戶身分。
就像過去的資料庫一樣,人臉識別的用途會越來越廣,甚至會衍生出一些看起來原本跟臉無關的方向。其中或許有些是「好」的、有些或許會引起疑慮。但我們怎麼分辨?
我們目前在判斷這類問題時,往往會使用這樣的思路:
  • 拍攝識別系統是政府還是私人公司營運?
  • 是主動的還是被動的?是在使用特定服務(例如在接待櫃檯登記資料)時發生,還是只要走進大門、甚至從街上走過門口就會被拍攝?
  • 如果是被動的(走過就被拍攝),它需要告訴你嗎?如果它是主動(在特定情境被拍攝)的,你可以選擇不被拍嗎?
  • 拍攝資料會連結你的真實身分,還是僅作為匿名統計之用(例如計算大眾運輸系統流量)?
  • 被拍攝對我有好處嗎?還是只有其他人獲益?
  • 最後,不只是「要不要被拍」,還有被記錄下來的資料問題:這些資料會存在哪裡?有誰可以看到?我可以要求查閱或刪除嗎?
在這些前提下,相信大多數人都對海關用攝影機拍你的臉、比對護照和電腦檔案上的照片、並且記錄整個過程,都不會表示反感;在有人臉辨識的銀行櫃檯也不會太不自在。
因為,這些過程都有明確而正當的理由,執行的單位也獲得你的認可;同樣的,我們會接受電話公司追蹤自己手機的位置、或是往來銀行知道戶頭裡有多少錢,因為這是他們的工作。
其實,我們已經習慣於給予不同機構各自的權限,讓他們窺探我們的隱私。
但反過來說,電話公司當然不可以知道我一個月賺多少錢。總而言之,我們已經習慣於給予不同機構各自的權限,讓他們窺探我們的隱私。
另一方面,想像一下物業開發商用人臉辨識功能來標記、追踪走在購物街上的每個人,紀錄他們進入哪些商店、看什麼產品、拿起哪些試穿,然後將這些資料連結到櫃台結帳機和信用卡。
相信多數人會對這種行為覺得不舒服;因為它是被動的,沒有經過你的知悉和同意,而且是私人公司營運、對你也沒有任何好處。
換言之,這也可以說是在您「非自願」的情況下,對隱私的入侵。
但換個方式看,如果這些追蹤記錄是匿名的,那麼是否還可以接受?如果記錄資料不會明確連結到信用卡和身分,並且僅用於分析逛街路線呢?如果它追蹤的是衣服和走路方式,而不是臉孔呢?
如果公共交通單位使用匿名的人臉辨識,來分析人們的通勤軌跡呢?這樣可以嗎?既然商家已經可以使用信用卡(購物時會連結你的真實身分)、捷運公司也可以透過智慧票卡知道你的行蹤(通常是如此),這樣又有什麼不同呢?
或許,我們對於自己同意和不同意的對象,其實並不是那麼清楚?
商家追蹤顧客的行為由來已久,只是過去沒有用到人臉辨識,而大眾似乎也不太喜歡這一點。但如果是非常明顯的政府公益用途,像是識別通緝犯,又是如何呢?
我們大家(至少筆者個人認為)我們並不會反對貼在警察局門口、或是警車上的「通緝犯照片」;另一方面,現在在收費站、停車場之類的地方,到處都有車牌辨識系統,大家也都習慣了。
但如果每輛警車上都有一大堆鏡頭,掃描百米範圍內看得到的每一張臉、並且跟全國通緝犯資料庫互相比對呢?如果有一套系統要求路上的每輛自動駕駛汽車都掃描對向來車、並且彼此交換臉孔資料來搜尋通緝犯呢?
在以上這些問題中,我們假設要找的是真正的罪犯,而不是異議人士之類的特定族群;但即使如此,大眾仍然很難達到共識。重點是,人們相信警察嗎
或許你會說,警察不可以持續掃描每一張臉(例如掃描進城地鐵車廂上的每個人),但可以調閱監視器影片,針對某一張特定的臉來進行掃描。這兩種手法似乎不一樣,但實際上有什麼不同?
美國法院曾經有過判決,限制警方在嫌犯車上放置GPS追蹤器來進行調查,多數時候必須用老派的盯梢方式來跟監。這樣的結果究竟是因為我們不要這樣的跟蹤方式,還是我們不希望警察跟蹤得太容易、太自動化?
另外一個極端案例是,美國政府禁止相關管理機構將槍枝資料紀錄在可搜尋的資料庫中;這些相關資料都不得數位化、必須用手動方式搜尋。
或許我們可以說,有某些自動化的事情,確實是我們不喜歡的:
如果有些原本只能在小範圍中完成的事情,忽然變得也可以在大範圍中實行,我們就會開始緊張。
來自資料庫的歷史經驗告訴我們,我們之所以會對某些事物感到不安,只是因為它們很新、所以我們不熟悉,而人臉辨識就是個例子。
同樣的,任何新應用都可能帶來某種程度的不安,但這些都是可以試著適應或重新思考的。因為:
  • 這些新事物確實可能不好、而且我們也不喜歡;
  • 或者我們覺得這些新東西沒什麼重要;
  • 或著我們覺得它只是新瓶裝舊酒、沒什麼了不起;
  • 或許它是原本就存在的應用,只是加上人臉辨識之後變得更厲害、或是讓我們覺得完成度更高。
以上的這些討論,都是從意識、文化、政治出發,而不只是從技術角度來看。我們都知道,在各種極端的應用案例之中,都有著一般人不見得認同的模糊空間,而是否認同則是會因人、因地而異的。

你喜歡身分證嗎?

舉個例子來說,各國公民對於強制配發「身分證」就有不同的態度。在英國並沒有身分證這種東西,民眾也一直不想擁有或使用;因為他們認為,這個制度會侵害個人自由。
但是自古崇尚自由的法國,就沒有這個問題;每位公民都有身分證,而且對它完全沒有意見。不過值得一提的是,因為過去納粹在佔領期間用「族裔背景」資料來逮捕猶太人,所以現今的法國人口普查並不包含這個項目。
理論上美國沒有身分證制度,但某種程度上也可以說有(編按:一般來說,在其他國家需要用身分證證明自己的場合,在美國都是用駕照;但前提必須是你有駕照)。德國也有身分證制度,但基於歷史原因,德國人對於其他形式的侵犯隱私行為都非常抗拒。
對於要不要身分證制度,並沒有唯一的標準答案,也不太可能透過資料分析來找到標準答案;因為這是個牽涉不同社會、文化、以及政治背景問題,各國都有不同的作法。
雖然如前所述,美國沒有全國性的數位化槍枝資料庫,但有一家名叫做「PatronScan」的公司提供服務,讓超過600家酒吧和夜總會掃描你的駕駛執照,再跟一個內含38,000人的黑名單互相比對,以便預防「意外事件」。此外,美國許多州的車輛監理局也出售個人資料給私人公司作為商業用途。
想像一下,要在1980年建立一個這樣的決策資料庫組合,來預測各種事件的發生,會有多麼困難?

「道德」與「控管」:不同機構有不同手法

科技業對這類問題最直覺的反應,就是公司中創立各種「道德委員會」、並且制訂各種規範工程師、研究人員、以及公司本身的行為準則。這兩種作法的基礎是:
  • 承諾不用「壞資料」(以最廣義的角度來說)來創造東西;
  • 承諾不創造「壞東西」,至於什麼是壞東西,則交由道德委員會的審查程序來判斷。
沒錯,這些都是必要的,但還不夠。
首先,如果承諾的內容是「不做壞東西」,看起來有點畫蛇添足,因為沒有人會刻意把東西做壞。你或許可以列出一些「盡量避免搞砸」的事情、並且因此有些進步;但該發生的還是一定會發生、你也沒辦法阻止別人出包。
回到資料庫的例子。筆者有個朋友最近寫了一篇部落格文章,提到因為租車公司誤報失竊,導致關於他被警察攔下並銬上手銬。這不是ML的問題,而是40年前技術的問題。
業界工程師都知道,資料庫本身出錯的歷史,比大多數資料庫工程師的壽命都還長,未來也仍會繼續發生;但重要的是,幸好原本要逮捕他的警官瞭解「資料庫可能出錯」的概念,而且(幸好)有調閱相關資料的權限,才解除了危機。

承認吧,人跟機器都會出錯

這又回到了先前提到的人臉辨識問題:你或許可以承諾自己盡量不犯錯,但抱持著「錯誤是可能發生的」概念可能更有幫助;因為,沒有人能打包票電腦一定是對的。
做「防扒竊人臉辨識系統」的外包工程師應該要有這個概念,辦這類案件的警察、律師、法官也都該有這個概念;畢竟只要電腦還是由人類操作,各種各樣的錯誤就會在每部電腦上一再發生。
其次,任何公司的任何人都該有權利判斷人臉辨識(或任何類型的ML系統)是否「邪惡」、並且主張不要把它做出來。
然而,「邪惡」與否通常是見仁見智的問題;如同前面討論過的,我們有時候就是不想要某些系統。另一方面,相信Megvii公司也有道德委員會,但他們就同意做了「智慧城市物聯網」的案子。
但正如Megvii和許多其他案例所顯示的,連維穩技術都已經成為一種商品。或許最尖端的技術仍然掌握在少數公司手中,但人臉辨識技術已經非常普遍,幾乎任何軟體公司都可以輕鬆取得、並且建構相關產品,
或許你可以決定自己要不要做某種產品,但它可能還是會被別人做出來。
如果我們認為某個產品是「邪惡」的,目標應該止於自己不做、還是要想辦法防止它被任何人做出來?
如果是後者,就帶出了另外一個層次的問題:假設歐盟各級政府都決議禁用人臉辨識系統,仍然不能保證不會有人或系統出錯;但至少可以提供強制性的審查程序,以避免錯誤發生、提供補救或處罰措施、要求檢視或刪除個人資料、甚至禁止或控管特定的應用方式。

技術與人之間

在筆者看來,目前最大的挑戰是定義出正確的「抽象層」,讓討論和規範有所依據。當Bernie Madoff的龐氏騙局被踢爆時,重點絕對不在於「Excel工具需要更嚴格的監管」、或是「他的房東應該發現他在做什麼」。
在這裡,監管機構介入的「抽象層」應該是「金融服務」本身,而不是用了什麼工具。
目前對於規範技術應用的最大挑戰,是定義出正確的「抽象層」。
即使要監管金融服務,也要知道前提是貸款、信用卡、股票、以及個人金融等各種服務的條件都不一樣。同樣的道理,如果有人要立法規定只能用人臉辨識解鎖手機、超市必須掃描哪些顧客手上有會員卡、或是警察只能在哪裡拍照並儲存資料,都必定是事倍功半、效果不彰。
雖然如此,不同國家和地區仍不同的看法和手段。雖然歐盟和美國一直在熱烈討論隱私和技術應用的問題,但同時Megvii公司也已經將「智能城市物聯網」相關產品賣到中國之外的15個國家。
所以除了討論人臉辨識之類的個別應用之外,筆者覺得更重要的是,全世界在這方面已經形成了兩個陣營:一個陣營是以「歐盟模式」和美國為首,主張對隱私和技術應用嚴格監管;另一個陣營則是也正在擴散的「中國模式」。
現在看來,顯然也頗有不少國家認為,中國模式比歐盟或美國的做法更值得效法。
(編譯/傅瑞德
為什麼會看到廣告
1.4K會員
2.0K內容數
為您送上頂尖作者的最新管理與科技產業思維。
留言0
查看全部
發表第一個留言支持創作者!
你可能也想看
迎新活動「方格新手村」:新格友註冊加入方格子,知名日料吃到飽餐券送給你! 👉 還不是 vocus 的會員嗎?點此註冊,參與新手村活動 👈 近期站上也出現了不少新格友,為了歡迎各位的加入,「方格新手村」隨之登場! 即日起,只要是新註冊帳號於活動期間內發佈 3 則文章,就有機會抽獎獲得知名日料吃到飽餐券。原格友也可以一起同樂,我們準備了小任
Thumbnail
2024-06-21
閱讀心得:展現自我的生活態度|成熟大人的說話課我們每天都在說話,但說出的話合適嗎? Sunny最近讀完一本有關溝通的書籍。 這是由世紀奧美公關的創辦人「丁菱娟」所寫的書,書的全名《丁菱娟的成熟大人說話課:如何說,才能得體又不傷人?反擊時,如何堅定又有力量?任何情境都可用的38個溝通之道》。 會找這本書來看,主要是因為Sunny 近期發
Thumbnail
2024-07-10
防曬產品係數測試報告彙整(2024年)從2014年起,自己對於市售防曬產品的效能產生了濃厚的興趣。因為當時候發現不少產品的防曬係數其實標示是有問題的,像是原本應該是人體測試的SPF與PA數值,實際上沒有做,只用機器測試的數據來充當,但這兩者卻有很大的差異。像是防曬係數其實有強度、廣度與平均度三個面向需要一起判斷,但多數廠商並沒有完整標示
Thumbnail
015| 你世界的「主角」是誰/談小時候的心願與幻滅。當你在童年時期,會不會也曾經希望媽媽能聽懂自己說話的心願。
Thumbnail
為什麼異國戀總是無疾而終?【文字背後企劃|給想談異國戀的你 】: 不適合的關係,需要適時地放棄因相愛而相聚,因距離而離別,當你感到這段戀情不再適合彼此了,適時放手也許是需要且重要的。不適合的關係,需要適時地放棄,也許是對你我更好的選擇。
Thumbnail
新風機如何改善空氣?學者做實驗,談全熱交換器的具體作用-藝瓦高雄室內設計為了深入探討新風機與全熱交換器之間的技術差異,本文特地搜尋了台灣學界針對這兩種機械的學術論文。然而,由於新風機為近期新興的機械設備,相關的研究數據相對缺乏,相對地,全熱交換器的研究資料較為充足。 基於上述原因,本文將主要著重於全熱交換器的特點分享,並對新風機進行輔助性的探討。
Thumbnail
寫事實、講真話的傳媒操守:談《白日之下》只要堅持視而不見,所有問題都可以議而不決、決而不行、一拖再拖,直到相關官員光榮退休,就由新一批上場的負責人來接火捧,這樣的遊戲一玩就是幾十年,既蹉跎歲月又累積民怨,但誰會真正在乎弱勢社群的難處呢?
Thumbnail
2023-11-13
與人聊天時,為何要少談這三件事?揭秘說話的藝術和智慧 說話是人類最常用的交流方式,也是展現個人魅力和情商的重要途徑。但是,並不是所有的話題都適合與人聊天,有些事情如果說得過多,反而會給自己帶來麻煩和不利。那麼,與人聊天時,我們應該少談哪些事呢?本文將為您揭秘說話的藝術和智慧,讓您在與人交往中更加得心應手。 少談自己的家庭隱私 家庭是每個人最
Thumbnail
2023-10-14
當女孩成為貨幣|你是不是在想壞壞的事?女孩究竟在光譜的哪一端,取決於各界需要她們在哪個位置,符合如何的典型,從而值得什麼樣的定義。
Thumbnail
2022-10-28
高膽固醇的減藥方法:紅麴適合誰吃?海鮮蛋黃不能吃嗎?壞膽固醇真的越低越好嗎?前兩天,廷岳其中一位顧問客戶打了通電話過來,他問了一個你我都很在意的好問題: 膽固醇,是不是真的越低越好?「心臟科醫師都會『故意吃藥』把自己的壞膽固醇降到好低好低,說可以避免自己中風,不知道藥師你怎麼看?」
Thumbnail
破壞式創新,破壞的是什麼?破壞式創新指的是商品或服務應用方面的創新,對於產業現有的運作方式,產生劇烈影響,甚至「破壞」了遊戲規則,進而取代存在已久的競爭對手。
Thumbnail
2022-09-30
專輯簡評│理想混蛋《關掉/打開》│這是最好的時代,也是最壞的時代,過分扭曲的世界,誰來按下重啟鍵?挾帶金曲新人入圍光環的理想混蛋,過去的音樂多徘迴於情愫低語、柔情的聲線塑造情愛間的放手與不追究。對他們來說,第二張專輯究竟要持續做著受到金曲肯定的音樂,還是突破本來就想嘗試的作品?「關掉」、「打開」兩詞給了明確的答案。
Thumbnail
2022-09-03