<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	
	xmlns:georss="http://www.georss.org/georss"
	xmlns:geo="http://www.w3.org/2003/01/geo/wgs84_pos#"
	>

<channel>
	<title>張瑞雄 &#8211; 科技島-掌握科技新聞、科技職場最新資訊</title>
	<atom:link href="https://www.technice.com.tw/author/ruay-shiungchang/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.technice.com.tw</link>
	<description>專注於科技新聞、科技職場、科技知識相關資訊，包含生成式AI、人工智慧、Web 3.0、區塊鏈、科技職缺百科、生物科技、軟體發展、雲端技術等豐富內容，適合熱衷科技及從事科技專業人事第一手資訊的平台。</description>
	<lastBuildDate>Tue, 20 May 2025 00:51:38 +0000</lastBuildDate>
	<language>zh-TW</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.4.2</generator>

<image>
	<url>https://www.technice.com.tw/wp-content/uploads/2022/12/cropped-wordpress_512x512-150x150.png</url>
	<title>張瑞雄 &#8211; 科技島-掌握科技新聞、科技職場最新資訊</title>
	<link>https://www.technice.com.tw</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">223945996</site>	<item>
		<title>AI與批判性思考｜專家論點【張瑞雄】</title>
		<link>https://www.technice.com.tw/opinion/173506/</link>
					<comments>https://www.technice.com.tw/opinion/173506/#respond</comments>
		
		<dc:creator><![CDATA[張瑞雄]]></dc:creator>
		<pubDate>Thu, 22 May 2025 01:00:25 +0000</pubDate>
				<category><![CDATA[專家論點]]></category>
		<category><![CDATA[ａｉ]]></category>
		<category><![CDATA[張瑞雄]]></category>
		<category><![CDATA[批判性思考]]></category>
		<guid isPermaLink="false">https://www.technice.com.tw/?p=173506</guid>

					<description><![CDATA[<p><img width="1156" height="613" src="https://www.technice.com.tw/wp-content/uploads/2025/05/1-2.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="1 2" decoding="async" srcset="https://www.technice.com.tw/wp-content/uploads/2025/05/1-2.jpg 1156w, https://www.technice.com.tw/wp-content/uploads/2025/05/1-2-300x159.jpg 300w, https://www.technice.com.tw/wp-content/uploads/2025/05/1-2-1024x543.jpg 1024w, https://www.technice.com.tw/wp-content/uploads/2025/05/1-2-768x407.jpg 768w" sizes="(max-width: 1156px) 100vw, 1156px" title="AI與批判性思考｜專家論點【張瑞雄】 3"></p>
<p>作者：張瑞雄 台北商業大學前校長/叡揚資訊顧問 在人工智慧（AI）迅速滲透教育現場的今日，一個讓人關心的問題就 &#8230;<content>作者：張瑞雄 台北商業大學前校長/叡揚資訊顧問</p>
<p>在<a href="https://www.technice.com.tw/?s=%E4%BA%BA%E5%B7%A5%E6%99%BA%E6%85%A7" target="_blank" rel="noopener">人工智慧</a>（AI）迅速滲透教育現場的今日，一個讓人關心的問題就是「<a href="https://www.technice.com.tw/?s=AI" target="_blank" rel="noopener">AI</a>是否會降低學生的批判性思維能力」。支持者認為AI是推動學習效率與<a href="https://www.technice.com.tw/?s=%E7%9F%A5%E8%AD%98" target="_blank" rel="noopener">知識</a>擴展的創新工具；反對者則擔心它成為學生逃避思考、外包腦力的捷徑。</p>
<p>[caption id="attachment_173509" align="alignnone" width="798"]<img class="wp-image-173509" src="https://www.technice.com.tw/wp-content/uploads/2025/05/1-2-300x159.jpg" alt="" width="798" height="423" /> 過度依賴AI進行撰寫與決策時，往往跳過了關鍵的思維歷程。（圖／取自123RF）[/caption]</p>
<p>無可否認AI確實為學習帶來便利，透過AI，學生可以迅速蒐集資料、整理文獻，甚至獲得初步分析與寫作建議。這些工具在繁重的學術工作中提供即時協助，有助於釋放時間，使學生得以專注於更高層次的思考活動。例如當AI協助完成文獻回顧、語法校對或模擬論點時，學生可以將精力投入於論述架構的深化、觀點的釐清與概念的延伸。對於語言學習者而言，AI還能提供即時語言修正與範例，幫助學生更精確地表達自身思考。</p>
<p>這份便利也潛藏風險，當學生過度依賴AI進行撰寫與決策時，往往跳過了關鍵的思維歷程。他們不再經歷從無到有建構論述的掙扎，不再訓練如何判斷資訊的真偽與品質，也不再學習如何在觀點對立中做出價值抉擇。久而久之，思考變成機器外包的工作，學生則淪為接受答案的被動者。在這樣的過程中，原本應培養的批判性思維，包含問題意識、邏輯推理、證據評估與觀點建構，逐漸被削弱。</p>
<p>更嚴重的是，AI的運作邏輯與人類思維本質不同。AI透過資料集模式預測答案，它擅長生成合理但不一定正確的敘述。當學生無力或無意檢視AI生成內容的真實性時，極容易陷入錯誤資訊的陷阱。更有甚者，許多AI工具會「自創」引文、杜撰論點，學生若缺乏資訊素養，甚至無從察覺。這種現象讓原本應在教育中訓練的判斷與批判能力，在不知不覺中被弱化。</p>
<p>AI的回應往往傾向迎合主流與平均值，缺乏文化脈絡、情感深度與價值多元。當學生習慣性地接受這類「無偏見」但卻無個性的資訊，他們在知識建構過程中所學到的不再是真實世界的複雜與衝突，而是單一、扁平化的觀點。長期下來，學生可能失去主動追問的動力與多角度思維的敏感度，這對於民主社會所需的批判性公民素養，無疑是一大損失。</p>
<p>在這樣的教育生態中，教師的角色顯得更加關鍵。單純禁止學生使用AI，並無法遏止科技帶來的轉變。教師應主動引導學生與AI共學、共思。教育者需設計具有思辨張力的學習任務，例如要求學生對AI提供的內容進行反駁、提出替代論點，或進行資料來源與邏輯結構的驗證。同時也可以將AI視為對話對象，讓學生從AI的回應中學會質疑、比較與批判。</p>
<p>教育體制亦需檢討評量方式，當成績主要依賴輸出成果，學生自然會選擇效率至上的策略，如仰賴AI生成報告。唯有評量方式能涵蓋過程的觀察、思維歷程的呈現與自我反思的展現，學生才會意識到「怎麼想」比「產出什麼」更為重要。也就是說，評量應由「答案導向」轉為「思考導向」。</p>
<p>從心理發展角度來看，批判性思維的培養並非一蹴可幾，它需要時間與反覆練習。學生在撰寫報告、參與討論與構思論點的過程中，不只是產出內容，更是在整理自我觀點、發現價值立場、並與外部世界對話。AI若只是協助工具，能促進這樣的歷程；但若變成替代者，就會切斷這條成長的脈絡。</p>
<p>AI時代不會逆轉，面對這個無法避免的現實，我們與其恐懼，不如學會駕馭。未來的教育不該將AI視為威脅，而應當視為契機。唯有在課堂中建構AI與人類合作的思維模式，讓學生理解AI的可能性與局限性，批判性思維才能在科技浪潮中真正扎根。</p>
<p>AI本身不會毀滅批判性思維，它所造成的衝擊，端看教育者如何引導、制度如何設計、學生是否仍被鼓勵去思考。科技時代的思考者，必須學會在資訊充盈之中篩選、在工具發達之中自省、在答案唾手可得之際保有懷疑的勇氣。這樣的教育願景，才是我們真正該努力實現的目標。</content></p>
<p>這篇文章 <a rel="nofollow" href="https://www.technice.com.tw/opinion/173506/">AI與批判性思考｜專家論點【張瑞雄】</a> 最早出現於 <a rel="nofollow" href="https://www.technice.com.tw">科技島-掌握科技新聞、科技職場最新資訊</a>。</p>
]]></description>
		
					<wfw:commentRss>https://www.technice.com.tw/opinion/173506/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">173506</post-id>	</item>
		<item>
		<title>邊緣AI與分散式AI：新興技術如何改寫全球AI產業版圖？｜專家論點【張瑞雄】</title>
		<link>https://www.technice.com.tw/opinion/171687/</link>
					<comments>https://www.technice.com.tw/opinion/171687/#respond</comments>
		
		<dc:creator><![CDATA[張瑞雄]]></dc:creator>
		<pubDate>Thu, 08 May 2025 01:00:51 +0000</pubDate>
				<category><![CDATA[專家論點]]></category>
		<category><![CDATA[ａｉ]]></category>
		<category><![CDATA[分散式AI]]></category>
		<category><![CDATA[張瑞雄]]></category>
		<category><![CDATA[邊緣AI]]></category>
		<guid isPermaLink="false">https://www.technice.com.tw/?p=171687</guid>

					<description><![CDATA[<p><img width="1200" height="627" src="https://www.technice.com.tw/wp-content/uploads/2025/05/242600333_m_0.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="242600333 m 0" decoding="async" srcset="https://www.technice.com.tw/wp-content/uploads/2025/05/242600333_m_0.jpg 1200w, https://www.technice.com.tw/wp-content/uploads/2025/05/242600333_m_0-300x157.jpg 300w, https://www.technice.com.tw/wp-content/uploads/2025/05/242600333_m_0-1024x535.jpg 1024w, https://www.technice.com.tw/wp-content/uploads/2025/05/242600333_m_0-768x401.jpg 768w" sizes="(max-width: 1200px) 100vw, 1200px" title="邊緣AI與分散式AI：新興技術如何改寫全球AI產業版圖？｜專家論點【張瑞雄】 4"></p>
<p>近年來，人工智慧（AI）產業正快速演化，從大型語言模型（LLM）到邊緣AI（Edge AI），各種新技術正逐步改變AI的運作模式和產業競爭格局。很多企業投入邊緣AI，透過分散式計算帶動新的技術熱潮；另一方面，一種新的分散式AI訓練方法，更讓市場嗅到顛覆AI產業主流模式的可能性。這些新興科技不僅意味著技術上的突破，更深刻影響產業競爭、數據隱私、安全治理以及企業的未來營運模式。<content>作者：張瑞雄 台北商業大學前校長/叡揚資訊顧問</p>
<p>近年來，<a href="https://www.technice.com.tw/?s=%E4%BA%BA%E5%B7%A5%E6%99%BA%E6%85%A7" target="_blank" rel="noopener">人工智慧</a>（AI）產業正快速演化，從<a href="https://www.technice.com.tw/?s=%E5%A4%A7%E5%9E%8B%E8%AA%9E%E8%A8%80%E6%A8%A1%E5%9E%8B" target="_blank" rel="noopener">大型語言模型</a>（LLM）到<a href="https://www.technice.com.tw/?s=%E9%82%8A%E7%B7%A3AI" target="_blank" rel="noopener">邊緣AI</a>（Edge AI），各種新技術正逐步改變AI的運作模式和產業競爭格局。很多企業投入邊緣AI，透過分散式計算帶動新的技術熱潮；另一方面，一種新的分散式AI訓練方法，更讓市場嗅到顛覆AI產業主流模式的可能性。這些新興科技不僅意味著技術上的突破，更深刻影響產業競爭、數據隱私、安全治理以及企業的未來營運模式。</p>
<p>[caption id="attachment_171688" align="alignnone" width="829"]<img class="wp-image-171688" src="https://www.technice.com.tw/wp-content/uploads/2025/05/242600333_m_0-300x157.jpg" alt="" width="829" height="434" /> 各種新技術正逐步改變AI的運作模式和產業競爭格局。（圖／123RF）[/caption]</p>
<p>傳統的AI開發模式往往集中在巨大的資料中心內，運用數以萬計的高性能GPU集中處理大量資料進行模型訓練與推論。這種模式雖然成熟且有效，但也造成了高度的資源壟斷，只有資金雄厚的大型科技公司才能負擔得起如此高額的資本與營運支出。因此，小型企業或學術單位要想進入AI領域並非易事。此外，集中式的AI處理模式，也可能面臨資料隱私、資料主權等敏感議題，特別是在醫療、金融等需要高度隱私保護的領域，這種集中式架構常受限於法規和社會接受度。</p>
<p>正因如此，邊緣AI與分散式AI訓練模式的崛起，為產業帶來了一股新風。邊緣AI指的是將AI模型直接部署在靠近資料源的本地設備或邊緣裝置上進行運算，不需頻繁地與雲端進行資料交換，進而減少延遲、提高反應速度與降低運營成本。這種技術尤其適合對即時性要求較高的應用場景，如自動駕駛汽車、智慧工廠、智慧城市建設等。</p>
<p>邊緣AI還具有其他關鍵優勢，包括即時反應、資料隱私保護、穩定性與成本效益。例如在工業自動化領域，邊緣AI可以即時進行產品瑕疵檢測，降低故障率並提升生產效率；在智慧城市中，透過即時分析，快速回應公共安全事件，提升城市管理效率。透過將資料處理局部化，大幅減少對頻寬的需求和雲端儲存成本，這對企業的長期營運成本控制很有利。</p>
<p>分散式AI訓練模式同樣是另一個值得關注的發展趨勢，透過利用全球分散的GPU資源與來自社交媒體平台上的資料，驗證了分散式AI訓練可行性，進一步拓展了AI產業的參與者範圍，提供給中小型企業、學術單位甚至資源有限的國家參與AI競爭的新路徑。</p>
<p>所以即便硬體設施並非高度集中，亦能有效訓練出具競爭力的AI模型。在此分散式訓練中，個人資料能夠在AI訓練過程中直接發揮作用，且用戶可控制其資料的用途甚至從中獲利。這種方法可能徹底改變未來資料治理的面貌，為AI訓練提供更多元的資料來源，並解決資料隱私的長期爭議。</p>
<p>&nbsp;</p>
<p>當前的AI發展已逐步跨越單純技術競爭，轉而成為戰略性產業佈局的重要一環。邊緣AI與分散式AI訓練模式的融合，有望形成新的產業競爭力，使得市場不再由少數大企業壟斷，而是逐步形成多元、開放、且更為民主的發展生態。對於台灣而言，此一技術發展亦提供新的產業升級與國際競爭的機遇，藉由邊緣AI的佈局與分散式計算的推廣，將可能助力台灣在全球AI競爭版圖中取得關鍵優勢。</p>
<p>&nbsp;</p>
<p>邊緣AI與分散式AI模式的興起，不僅是AI技術上的創新突破，更代表著AI產業民主化與資料主權回歸的重要趨勢。未來，政策制定者與企業領袖應深入了解此一趨勢，及早規劃相應的治理框架與商業模式，以迎接AI新時代帶來的廣泛機遇與挑戰。</content></p>
<p>這篇文章 <a rel="nofollow" href="https://www.technice.com.tw/opinion/171687/">邊緣AI與分散式AI：新興技術如何改寫全球AI產業版圖？｜專家論點【張瑞雄】</a> 最早出現於 <a rel="nofollow" href="https://www.technice.com.tw">科技島-掌握科技新聞、科技職場最新資訊</a>。</p>
]]></description>
		
					<wfw:commentRss>https://www.technice.com.tw/opinion/171687/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">171687</post-id>	</item>
		<item>
		<title>大學AI競爭的角色和重要性｜專家論點【張瑞雄】</title>
		<link>https://www.technice.com.tw/opinion/169584/</link>
					<comments>https://www.technice.com.tw/opinion/169584/#respond</comments>
		
		<dc:creator><![CDATA[張瑞雄]]></dc:creator>
		<pubDate>Thu, 10 Apr 2025 01:00:59 +0000</pubDate>
				<category><![CDATA[專家論點]]></category>
		<category><![CDATA[ａｉ]]></category>
		<category><![CDATA[大學]]></category>
		<category><![CDATA[張瑞雄]]></category>
		<guid isPermaLink="false">https://www.technice.com.tw/?p=169584</guid>

					<description><![CDATA[<p><img width="1200" height="627" src="https://www.technice.com.tw/wp-content/uploads/2025/12/0408_01.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="0408 01" decoding="async" srcset="https://www.technice.com.tw/wp-content/uploads/2025/12/0408_01.jpg 1200w, https://www.technice.com.tw/wp-content/uploads/2025/12/0408_01-300x157.jpg 300w, https://www.technice.com.tw/wp-content/uploads/2025/12/0408_01-1024x535.jpg 1024w, https://www.technice.com.tw/wp-content/uploads/2025/12/0408_01-768x401.jpg 768w" sizes="(max-width: 1200px) 100vw, 1200px" title="大學AI競爭的角色和重要性｜專家論點【張瑞雄】 5"></p>
<p>人工智慧（AI）作為21世紀最具革命性的技術之一，已成為全球各國競相爭奪的科技制高點。從美國史丹佛大學到中國清華大學，從英國牛津大學到新加坡國立大學，各國頂尖大學正逐漸扮演推動AI創新、培育專業人才以及促進產業融合的重要角色。在這場激烈的國際競爭中，大學究竟具備什麼樣的戰略價值？它們又如何影響全球AI產業的發展？<content>作者：張瑞雄 台北商業大學前校長</p>
<p>人工智慧（AI）作為21世紀最具革命性的技術之一，已成為全球各國競相爭奪的科技制高點。從美國史丹佛大學到中國清華大學，從英國牛津大學到新加坡國立大學，各國頂尖大學正逐漸扮演推動AI創新、培育專業人才以及促進產業融合的重要角色。在這場激烈的國際競爭中，大學究竟具備什麼樣的戰略價值？它們又如何影響全球AI產業的發展？</p>
<p>[caption id="attachment_169710" align="alignnone" width="824"]<img class="wp-image-169710" src="https://www.technice.com.tw/wp-content/uploads/2025/12/0408_01-300x157.jpg" alt="" width="824" height="431" /> 各國頂尖大學正逐漸扮演推動AI創新、培育專業人才以及促進產業融合的重要角色。（圖／123RF）[/caption]</p>
<p>大學是全球AI人才培育的核心基地，無論在哪個國家，培養能夠主導AI技術未來發展的人才，都是確保國家競爭力的關鍵。以美國為例，長期以來吸引世界各地的頂尖人才聚集於史丹佛、麻省理工、哈佛等頂尖學府，這些人才畢業後多進入Google、OpenAI、Meta等全球AI巨頭，進一步強化美國的全球科技領導地位。</p>
<p>相對而言，中國近年則透過強有力的國家政策與資源投入，極力推動「產學研合作」，鼓勵清華大學、北京大學等高等學府大力擴增AI相關學科，積極與產業界合作。近期廣受矚目的DeepSeek AI模型，即是中國本土培育的人才與大學資源整合的最佳案例，其在短時間內取得與美國ChatGPT匹敵的技術成果，凸顯大學對中國AI競爭力的重要推動作用。</p>
<p>大學也提供AI創新的理論與技術基礎，儘管AI應用的產業化大多由企業主導，但從深度學習到生成式AI等諸多技術的根本性突破，多半誕生於大學的實驗室。例如加拿大多倫多大學教授Geoffrey Hinton（2024諾貝爾物理獎得主）所提出的深度神經網路理論，奠定了深度學習技術的基礎；史丹佛大學在自然語言處理（NLP）方面的研究，也長期居於全球前列，推動了相關技術的快速落地。</p>
<p>同時大學在基礎研究方面的長期性和前瞻性，能彌補企業追求短期商業回報所導致的研發短視問題。例如歐洲的大學，如英國劍橋大學、牛津大學，均長期投入AI倫理與監管議題的研究，為全球AI技術的永續發展提供重要的倫理指南和規範參考，顯示大學不僅影響技術層面，也塑造了全球AI治理的發展方向。</p>
<p>此外，大學也是各國推動AI國際合作的重要橋樑。在全球科技競爭加劇，地緣政治影響日益擴大的背景下，大學之間的跨國合作逐漸成為維持技術交流的重要途徑。例如新加坡國立大學（NUS）與中國清華大學共同設立的「NexT研究中心」，致力於醫療、金融與智慧城市領域的AI應用合作；歐洲各國大學也紛紛參與跨國研究聯盟，推動跨文化、跨領域的AI技術交流與合作。</p>
<p>當然大學在AI競爭中也面臨不少挑戰，全球AI人才爭奪戰愈演愈烈，導致大學普遍難以與產業界競爭人才待遇，許多頂尖學者與研究人員被企業高薪吸引，進而降低學術界的創新動能。另外各國大學間資源分配不均，也導致國際AI競爭中強弱分明，特別是發展中國家的大學，因資源不足而難以培養出具全球影響力的AI人才與成果。</p>
<p>AI研究的成本快速提升，讓許多大學無法獨立負擔巨大的算力需求，導致一些頂尖大學逐漸退出AI基礎研究的競爭，這凸顯了政府政策支持與產業界資源挹注的重要性。尤其在科技競爭日益激烈的今日，國家政策與大學發展之間的緊密結合已成為決定各國AI競爭力的重要因素。</p>
<p>展望未來，各國大學將繼續在AI發展中發揮核心作用。政府與產業界必須認清大學對國家競爭力的戰略意義，透過提供充足的資源與良好的研究環境，確保大學能持續產出高品質的研究成果與頂尖人才。同時各國也應加強國際間大學的合作，避免AI競爭演變為科技孤島，以共同推動AI技術的全球進步。</p>
<p>&nbsp;</p>
<p>&nbsp;</content></p>
<p>這篇文章 <a rel="nofollow" href="https://www.technice.com.tw/opinion/169584/">大學AI競爭的角色和重要性｜專家論點【張瑞雄】</a> 最早出現於 <a rel="nofollow" href="https://www.technice.com.tw">科技島-掌握科技新聞、科技職場最新資訊</a>。</p>
]]></description>
		
					<wfw:commentRss>https://www.technice.com.tw/opinion/169584/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">169584</post-id>	</item>
		<item>
		<title>Google AI廣告烏龍：企業如何面對AI技術的挑戰？｜專家論點【張瑞雄】</title>
		<link>https://www.technice.com.tw/opinion/165161/</link>
					<comments>https://www.technice.com.tw/opinion/165161/#respond</comments>
		
		<dc:creator><![CDATA[張瑞雄]]></dc:creator>
		<pubDate>Sat, 22 Feb 2025 01:00:42 +0000</pubDate>
				<category><![CDATA[專家論點]]></category>
		<category><![CDATA[ａｉ]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[張瑞雄]]></category>
		<guid isPermaLink="false">https://www.technice.com.tw/?p=165161</guid>

					<description><![CDATA[<p><img width="1200" height="627" src="https://www.technice.com.tw/wp-content/uploads/2025/02/0220_26.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="0220 26" decoding="async" srcset="https://www.technice.com.tw/wp-content/uploads/2025/02/0220_26.jpg 1200w, https://www.technice.com.tw/wp-content/uploads/2025/02/0220_26-300x157.jpg 300w, https://www.technice.com.tw/wp-content/uploads/2025/02/0220_26-1024x535.jpg 1024w, https://www.technice.com.tw/wp-content/uploads/2025/02/0220_26-768x401.jpg 768w" sizes="(max-width: 1200px) 100vw, 1200px" title="Google AI廣告烏龍：企業如何面對AI技術的挑戰？｜專家論點【張瑞雄】 6"></p>
<p>Google在Super Bowl（超級盃）廣告上的「AI芝士烏龍」事件，再次暴露了人工智慧技術的局限性與企業行銷策略的誠信問題。這起事件不僅顯示AI在生成內容時的風險，也反映出企業在推廣AI技術時，往往存在誇大與誤導的現象。當AI逐步融入商業與生活，這類錯誤是否會成為常態？企業又該如何正確應對AI技術的挑戰？<content>作者：張瑞雄 台北商業大學前校長/叡揚資訊顧問</p>
<p><a href="https://www.technice.com.tw/?s=Google">Google</a>在Super Bowl（超級盃）廣告上的「<a href="https://www.technice.com.tw/?s=AI">AI</a>芝士烏龍」事件，再次暴露了人工智慧技術的局限性與企業行銷策略的誠信問題。這起事件不僅顯示AI在生成內容時的風險，也反映出企業在推廣AI技術時，往往存在誇大與誤導的現象。當AI逐步融入商業與生活，這類錯誤是否會成為常態？企業又該如何正確應對AI技術的挑戰？</p>
<p>[caption id="attachment_165176" align="alignnone" width="810"]<img class="wp-image-165176" src="https://www.technice.com.tw/wp-content/uploads/2025/02/0220_26-300x157.jpg" alt="" width="810" height="424" /> 如果AI系統只是抓取網路上的資訊，那麼當這些資訊本身有誤時，AI將無法提供真正可靠的內容。（圖／123RF）[/caption]</p>
<p>這次的廣告事件，原本是Google為了展示其AI模型Gemini的強大能力，特別拍攝的一則廣告，內容是AI協助威斯康辛州的Wisconsin Cheese Mart撰寫產品描述，聲稱「Gouda（高達芝士）佔全球芝士消費量的50-60%」。但這個數據並不準確，並被網友揭發後迅速引發熱議。</p>
<p>&nbsp;</p>
<p>更具爭議的是，Google一開始辯稱這並非AI「幻覺」（hallucination），而是來自網路上的既有資訊。但進一步的調查發現，這段錯誤資訊早在2020年就已經出現在Wisconsin Cheese Mart的官網上，並非Gemini所生成。換句話說，這則廣告實際上誤導了觀眾，讓人誤以為Gemini AI生成了這段內容，實際上只是複製了一段錯誤的舊資料。</p>
<p>延伸閱讀：人工智慧安全報告｜專家論點【張瑞雄】</p>
<p>這暴露了一個重要問題：AI內容生成的準確性是否能被驗證？如果AI系統只是抓取網路上的資訊，那麼當這些資訊本身有誤時，AI將無法提供真正可靠的內容。這也讓人質疑，企業在推廣AI技術時，是否真正理解並負責任地管理AI生成的內容，還是僅僅將AI當成行銷噱頭。</p>
<p>&nbsp;</p>
<p>Google的這次失誤，不僅是一次技術上的瑕疵，更是一場行銷公關的失敗。當企業選擇將AI作為產品賣點時，就必須確保其宣傳內容是準確的，而不是為了塑造AI的強大形象而忽視其技術限制。</p>
<p>&nbsp;</p>
<p>這已經不是Google第一次因為AI技術而出錯，Gemini曾因為生成「政治正確」的圖片（如將美國開國元勳描繪成包含非裔人士的形象）而被批評，甚至曾在搜尋結果中建議使用「無毒膠水」來讓芝士更牢固地附著在披薩上，或建議人類每天吃一塊石頭。這些荒謬的案例，顯示即便是頂尖的AI技術，也無法避免產生錯誤資訊，而企業卻往往急於將AI包裝成「萬能工具」，導致消費者對其能力的誤解。</p>
<p>&nbsp;</p>
<p>這樣的問題不僅限於Google，<a href="https://www.technice.com.tw/?s=Apple">Apple</a>今年年初也因AI新聞摘要功能產生錯誤內容而被迫停用其新聞通知系統。這顯示出當AI被應用於內容生成、資料分析或決策輔助時，其輸出內容仍然需要經過嚴格審核，而不能完全依賴AI的結果。</p>
<p>&nbsp;</p>
<p>企業在推動AI應用時，應該更加透明，誠實地向消費者說明AI的能力與限制，而不是過度誇大，甚至誤導大眾。AI並不是行銷包裝的萬靈丹，而是一項需要謹慎使用的技術。</p>
<p>&nbsp;</p>
<p>這次事件的另一個深遠影響是它可能加劇公眾對AI技術的信任危機，當AI被廣泛應用於新聞、商業、教育、金融甚至醫療等領域時，如果連Google這樣的科技巨頭都無法確保其AI輸出的內容準確無誤，那麼消費者該如何信任這項技術？</p>
<p>&nbsp;</p>
<p>AI的發展已經進入高速成長階段，越來越多企業開始依賴AI來處理資料分析、內容生成，甚至進行決策輔助。這類技術一旦輸出錯誤資訊，不僅會誤導消費者，甚至可能帶來實際的風險。例如如果金融機構依賴AI進行信用評估，卻因為錯誤資料導致評估結果不準確，或是醫療AI因為誤判病症而影響治療決策，這些後果將遠比一則廣告出錯更加嚴重。</p>
<p>&nbsp;</p>
<p>因此未來的AI發展需要建立更強的透明機制與監管標準，企業必須確保AI生成的內容可以被追蹤與驗證，而監管機構則應該制定明確的標準，確保AI技術的應用不會帶來誤導性資訊。</p>
<p>&nbsp;</content></p>
<p>這篇文章 <a rel="nofollow" href="https://www.technice.com.tw/opinion/165161/">Google AI廣告烏龍：企業如何面對AI技術的挑戰？｜專家論點【張瑞雄】</a> 最早出現於 <a rel="nofollow" href="https://www.technice.com.tw">科技島-掌握科技新聞、科技職場最新資訊</a>。</p>
]]></description>
		
					<wfw:commentRss>https://www.technice.com.tw/opinion/165161/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">165161</post-id>	</item>
		<item>
		<title>言論自由與事實查核：Meta的新方向是否走向極端？｜專家論點【張瑞雄】</title>
		<link>https://www.technice.com.tw/opinion/159710/</link>
					<comments>https://www.technice.com.tw/opinion/159710/#respond</comments>
		
		<dc:creator><![CDATA[張瑞雄]]></dc:creator>
		<pubDate>Mon, 20 Jan 2025 01:00:02 +0000</pubDate>
				<category><![CDATA[專家論點]]></category>
		<category><![CDATA[META]]></category>
		<category><![CDATA[張瑞雄]]></category>
		<category><![CDATA[言論自由]]></category>
		<guid isPermaLink="false">https://www.technice.com.tw/?p=159710</guid>

					<description><![CDATA[<p><img width="1200" height="627" src="https://www.technice.com.tw/wp-content/uploads/2025/12/image222.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="image222" decoding="async" srcset="https://www.technice.com.tw/wp-content/uploads/2025/12/image222.jpg 1200w, https://www.technice.com.tw/wp-content/uploads/2025/12/image222-300x157.jpg 300w, https://www.technice.com.tw/wp-content/uploads/2025/12/image222-1024x535.jpg 1024w, https://www.technice.com.tw/wp-content/uploads/2025/12/image222-768x401.jpg 768w" sizes="(max-width: 1200px) 100vw, 1200px" title="言論自由與事實查核：Meta的新方向是否走向極端？｜專家論點【張瑞雄】 7"></p>
<p>最近Meta公司宣布結束第三方事實查核計劃，轉而採用用戶生成的「社群筆記」（Community Notes），此舉引起了批評爭議。此決策標誌著這家科技巨頭對言論自由的重新定位，但也揭露了其在內容審查與真實性保障方面的重大挑戰。<content>作者：張瑞雄 台北商業大學前校長/叡揚資訊顧問</p>
<p>最近<a href="https://about.meta.com/tw/">Meta</a>公司宣布結束第三方事實查核計劃，轉而採用用戶生成的「社群筆記」（Community Notes），此舉引起了批評爭議。此決策標誌著這家<a href="https://www.technice.com.tw/?s=%E7%A7%91%E6%8A%80">科技</a>巨頭對言論自由的重新定位，但也揭露了其在內容審查與真實性保障方面的重大挑戰。</p>
<p>[caption id="attachment_159727" align="alignnone" width="839"]<img class="wp-image-159727" src="https://www.technice.com.tw/wp-content/uploads/2025/12/image222-300x157.jpg" alt="" width="839" height="439" /> 言論自由是民主社會的基石，但自由不應以犧牲真實性為代價。（圖／123RF）[/caption]</p>
<p>Meta原先的第三方事實查核計劃啟動於2016年，目的在應付選舉期間虛假訊息的擴散。近年來，這項計劃受到兩極化的政治指責，特別是來自保守派的批評，認為其偏向自由派，抑制保守派聲音​。</p>
<p>在此背景下，Meta的創辦人兼CEO祖克伯格決定參考馬斯克於X平台的作法，以「社群筆記」取代專業事實查核團隊。祖克伯格坦言，過去的查核系統「錯誤率過高」，導致了「過多無害內容遭刪除」，並表示新系統旨在恢復用戶對言論自由的信心​。</p>
<p>言論自由是民主社會的基石，但自由不應以犧牲真實性為代價。Meta的新策略強調「讓用戶自行決定事實」，但這也意味著平台可能成為假訊息的溫床。讓用戶自行定義真相，無疑是在放任虛假訊息的傳播​。</p>
<p>舉例而言，過去的事實查核計劃曾成功攔截虛假的疫苗資訊與選舉謠言。但若沒有專業機構進行把關，未來可能充斥更多針對健康、科學與政治的誤導性內容。反對者認為，這一舉措顯然是「政治化的退讓」，迎合了即將上任的保守派政府​。</p>
<p>Meta作為擁有超過20億用戶的平台，擁有全球性影響力。這家科技公司一再宣稱自己僅是「技術平台」，而非「出版機構」，以此迴避對內容負責的法律與道德義務​。</p>
<p>隨著其社群筆記系統的推行，Meta的角色實際上正在模糊化。這種系統本質上要求用戶成為事實查核者，但普通用戶是否具備判斷真假的能力仍是未知數。一項針對用戶的調查顯示，多數人認為事實查核非常重要，特別是在涉及公共健康與安全的議題上​。</p>
<p>Meta的決策不僅影響到平台內的內容生態，也可能對民主與公共話語產生深遠影響。一方面，此舉或能鼓勵更多多元化的聲音，減少對特定政治立場的偏袒。另一方面，卻也可能助長極端主義與仇恨言論的傳播。</p>
<p>面對這一爭議，Meta需要尋求平衡。首先應提升用戶生成內容的透明度與可信度，例如引入更多專業審查機制，或在關鍵議題上設立專業諮詢委員會。此外Meta應主動向公眾解釋其政策轉變的原因與預期影響，以減少公眾的不安。</p>
<p>全球各國政府與監管機構也應重新審視對科技巨頭的監管措施，過去對於平台的監管大多聚焦於隱私與資料安全，而忽略了其在公共話語中的作用。未來或許需要更明確的法律框架，規範平台的內容管理責任。</p>
<p>Meta的這次策略轉變，無疑是科技公司在言論自由與內容管理之間的最新嘗試。言論自由並非無限的，事實查核的價值在於維護社會的真實性與穩定性。如何在保護言論自由與防止假訊息擴散之間找到平衡，將是Meta以及其他科技公司面臨的持續挑戰。</p>
<p>&nbsp;</content></p>
<p>這篇文章 <a rel="nofollow" href="https://www.technice.com.tw/opinion/159710/">言論自由與事實查核：Meta的新方向是否走向極端？｜專家論點【張瑞雄】</a> 最早出現於 <a rel="nofollow" href="https://www.technice.com.tw">科技島-掌握科技新聞、科技職場最新資訊</a>。</p>
]]></description>
		
					<wfw:commentRss>https://www.technice.com.tw/opinion/159710/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">159710</post-id>	</item>
		<item>
		<title>O3模型的誕生：人工智慧的進步與挑戰｜專家論點【張瑞雄】</title>
		<link>https://www.technice.com.tw/opinion/158104/</link>
					<comments>https://www.technice.com.tw/opinion/158104/#respond</comments>
		
		<dc:creator><![CDATA[張瑞雄]]></dc:creator>
		<pubDate>Tue, 07 Jan 2025 01:00:15 +0000</pubDate>
				<category><![CDATA[專家論點]]></category>
		<category><![CDATA[O3模型]]></category>
		<category><![CDATA[人工智慧]]></category>
		<category><![CDATA[張瑞雄]]></category>
		<guid isPermaLink="false">https://www.technice.com.tw/?p=158104</guid>

					<description><![CDATA[<p><img width="1200" height="627" src="https://www.technice.com.tw/wp-content/uploads/2025/01/image132.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="image132" decoding="async" srcset="https://www.technice.com.tw/wp-content/uploads/2025/01/image132.jpg 1200w, https://www.technice.com.tw/wp-content/uploads/2025/01/image132-300x157.jpg 300w, https://www.technice.com.tw/wp-content/uploads/2025/01/image132-1024x535.jpg 1024w, https://www.technice.com.tw/wp-content/uploads/2025/01/image132-768x401.jpg 768w" sizes="(max-width: 1200px) 100vw, 1200px" title="O3模型的誕生：人工智慧的進步與挑戰｜專家論點【張瑞雄】 8"></p>
<p>2024年歲末，OpenAI再次震撼全球，發布了最新大型語言模型O3。這個模型以驚人的速度和實力橫掃多項AI基準測試，展現出前所未有的推理與抽象能力。在程式設計比賽、數學競賽乃至於最具挑戰性的ARC-AGI（抽象推理和通用人工智慧）測評中，O3的成績不僅超越了過往所有模型，甚至在某些領域超越了人類表現​。<content>作者：張瑞雄 台北商業大學前校長/叡揚資訊顧問</p>
<p>2024年歲末，<a href="https://www.technice.com.tw/?s=OpenAI" target="_blank" rel="noopener">OpenAI</a>再次震撼全球，發布了最新<a href="https://www.technice.com.tw/?s=%E5%A4%A7%E5%9E%8B%E8%AA%9E%E8%A8%80%E6%A8%A1%E5%9E%8B" target="_blank" rel="noopener">大型語言模型</a>O3。這個模型以驚人的速度和實力橫掃多項AI基準測試，展現出前所未有的推理與抽象能力。在程式設計比賽、數學競賽乃至於最具挑戰性的ARC-<a href="https://www.technice.com.tw/?s=AGI" target="_blank" rel="noopener">AGI</a>（抽象推理和通用人工智慧）測評中，O3的成績不僅超越了過往所有模型，甚至在某些領域超越了人類表現​。</p>
<p>[caption id="attachment_158113" align="alignnone" width="810"]<img class="wp-image-158113" src="https://www.technice.com.tw/wp-content/uploads/2025/01/image132-300x157.jpg" alt="" width="810" height="424" /> O3的成績不僅超越了過往所有模型，甚至在某些領域超越了人類表現​。（圖／123RF）[/caption]</p>
<p>O3模型在多個測試中創下了歷史紀錄，例如在全球程式設計競賽平台Codeforces上，O3取得了2727的高分，躋身全球前200名，超過99.99%的人類程式設計師​。此外在2024年的AIME數學競賽中，O3的準確率高達96.7%，幾乎接近滿分，這是AI首次能夠在如此高難度的數學測評中達到人類頂尖水準。</p>
<p>延伸閱讀：<a href="https://www.technice.com.tw/opinion/155920/" target="_blank" rel="noopener">AI生成的政治資訊與民主的挑戰｜專家論點【張瑞雄】</a></p>
<p>更具革命性的是，O3在ARC-AGI測評中獲得87.5%的成績，幾乎達到人類平均水準（約85%）​。這項成就意味著AI在適應新任務和未曾訓練過的領域中，已經展現出類似人類的學習與推理能力。</p>
<p>這項突破不僅使人們對人工智慧能力的認知大幅改變，也讓人開始思考通用人工智慧（AGI）是否已經近在眼前。OpenAI的一位董事會成員甚至表示：「市場仍然低估了O3模型的潛力，AGI的到來可能比預期更快​。」但馬斯克卻對此持不同看法。</p>
<p>儘管O3模型在測試中表現驚人，但仍然存在諸多爭議。部分專家認為OpenAI在訓練O3模型時，針對性地強化其在ARC-AGI測試中的表現，這可能限制了模型在更開放環境下的泛化能力。一位AI專家便指出，O3的高昂運作成本使其在實際應用中面臨經濟可行性的挑戰。</p>
<p>更重要的是，即便O3模型在複雜任務上表現卓越，它仍然在一些簡單的人類常識任務上表現不佳。這反映出AI在模擬人類綜合智力方面，仍然存在明顯差距​。</p>
<p>O3的出現無疑讓人類在邁向AGI的道路上前進了一大步，但這是否意味著AGI已經觸手可及？ARC-AGI的設計者指出，雖然O3的表現令人矚目，但這並不代表AGI已經實現​。他認為，真正的AGI應該能夠在所有人類輕鬆應對的任務上達到相同水準，而O3在這方面仍有不足。</p>
<p>此外O3模型在推理過程中可能採用了大量的計算資源和時間，而這種「以計算換取智慧」的方式，可能並非AGI實現的最佳或最終途徑​。</p>
<p>儘管存在爭議，O3模型無疑標誌著AI發展史上的重要里程碑。正如OpenAI執行長Sam Altman所言：「我們將比多數人預期更快實現AGI，但它的實際影響或許並不如想像中巨大​。」這意味著即便AGI在技術層面實現，其高昂的成本和應用限制，將使其在現實世界中的普及需要更長時間。</p>
<p>未來幾年，我們或許將看到AI逐步滲透到各行各業，從程式設計到醫療診斷，從教育輔助到科學研究。但真正的AGI將不僅是技術的突破，更將改變人類對智慧、工作及社會價值的根本認知。</p>
<p>O3模型的誕生是一場技術革命，也是一場對人類智慧與未來的挑戰。面對這快速發展的AI浪潮，社會各界需要保持開放的態度，積極探索AI的潛力，但同時也應保持警惕，避免過度依賴尚未成熟的技術。</content></p>
<p>這篇文章 <a rel="nofollow" href="https://www.technice.com.tw/opinion/158104/">O3模型的誕生：人工智慧的進步與挑戰｜專家論點【張瑞雄】</a> 最早出現於 <a rel="nofollow" href="https://www.technice.com.tw">科技島-掌握科技新聞、科技職場最新資訊</a>。</p>
]]></description>
		
					<wfw:commentRss>https://www.technice.com.tw/opinion/158104/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">158104</post-id>	</item>
		<item>
		<title>AI生成的政治資訊與民主的挑戰｜專家論點【張瑞雄】</title>
		<link>https://www.technice.com.tw/opinion/155920/</link>
					<comments>https://www.technice.com.tw/opinion/155920/#respond</comments>
		
		<dc:creator><![CDATA[張瑞雄]]></dc:creator>
		<pubDate>Wed, 18 Dec 2024 01:00:55 +0000</pubDate>
				<category><![CDATA[專家論點]]></category>
		<category><![CDATA[ａｉ]]></category>
		<category><![CDATA[AI生成]]></category>
		<category><![CDATA[張瑞雄]]></category>
		<category><![CDATA[政治資訊]]></category>
		<category><![CDATA[民主]]></category>
		<guid isPermaLink="false">https://www.technice.com.tw/?p=155920</guid>

					<description><![CDATA[<p><img width="1200" height="627" src="https://www.technice.com.tw/wp-content/uploads/2024/12/image219.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="image219" decoding="async" srcset="https://www.technice.com.tw/wp-content/uploads/2024/12/image219.jpg 1200w, https://www.technice.com.tw/wp-content/uploads/2024/12/image219-300x157.jpg 300w, https://www.technice.com.tw/wp-content/uploads/2024/12/image219-1024x535.jpg 1024w, https://www.technice.com.tw/wp-content/uploads/2024/12/image219-768x401.jpg 768w" sizes="(max-width: 1200px) 100vw, 1200px" title="AI生成的政治資訊與民主的挑戰｜專家論點【張瑞雄】 9"></p>
<p>隨著人工智慧（AI）技術的發展，其在政治資訊環境中的角色愈加引人關注。從2024年美國總統大選到其他國家的選舉，AI生成的「深偽」（deepfake）技術引起了社會對假資訊擴散的廣泛憂慮。但這些技術雖然能創造高度擬真的假影音，卻不是選舉中假資訊問題的唯一元兇。<content>作者：張瑞雄 台北商業大學前校長/叡揚資訊顧問</p>
<p>隨著<a href="https://www.technice.com.tw/?s=%E4%BA%BA%E5%B7%A5%E6%99%BA%E6%85%A7" target="_blank" rel="noopener">人工智慧</a>（AI）技術的發展，其在政治資訊環境中的角色愈加引人關注。從2024年美國總統大選到其他國家的選舉，<a href="https://www.technice.com.tw/?s=AI" target="_blank" rel="noopener">AI</a>生成的「<a href="https://www.technice.com.tw/?s=%E6%B7%B1%E5%81%BD" target="_blank" rel="noopener">深偽</a>」（deepfake）技術引起了社會對假資訊擴散的廣泛憂慮。但這些技術雖然能創造高度擬真的假影音，卻不是選舉中假資訊問題的唯一元兇。</p>
<p>[caption id="attachment_155973" align="alignnone" width="811"]<img class="wp-image-155973" src="https://www.technice.com.tw/wp-content/uploads/2024/12/image219-300x157.jpg" alt="" width="811" height="425" /> AI生成的「深偽」（deepfake）技術引起了社會對假資訊擴散的廣泛憂慮。（圖／123RF）[/caption]</p>
<p>首先，深偽技術之所以引起如此大的社會關注，是因其創造逼真假內容的潛力。在2024年美國大選中，一系列針對副總統賀錦麗（Kamala Harris）和其他候選人的深偽影片試圖影響選民對政治領袖的看法，不過根據對78個選舉相關深偽案例的分析，真正具欺騙意圖的案例僅佔一半​。許多深偽內容，例如候選人使用AI改善選舉宣傳材料，並不具備明顯的誤導性，甚至在某些情境下有助於促進資訊透明，例如記者使用AI化身規避政府打壓。</p>
<p>延伸閱讀：<a href="https://www.technice.com.tw/opinion/153770/" target="_blank" rel="noopener">人工智慧好壞兼具與規範挑戰｜專家論點【張瑞雄】</a></p>
<p>但AI生成內容的潛在危害不可低估，它增強了所謂的「說謊者紅利」（liar’s dividend），使得政客能輕易將真實但不利的內容描述為AI生成的假內容，進一步降低了公眾對新聞媒體的信任。</p>
<p>值得注意的是，並非所有的假資訊都需依賴AI技術。「廉價偽造」仍然是更為常見的手段，例如透過簡單的圖像編輯或聲音處理即可達成類似的效果。例如在一段演講中巧妙地刪去關鍵詞，以呈現出截然不同的含義​。在美國，類似手法的案例出現頻率是AI深偽的七倍。</p>
<p>因此AI的低成本特性雖然降低了假資訊的創作門檻，但並未改變假資訊的分發模式或其在選舉中的基本影響力。反而需求端的驅動力量，例如受眾對迎合其既定世界觀的資訊的渴求，才是真正推動假資訊擴散的根本原因​。</p>
<p>研究顯示，假資訊的主要受眾往往是那些已經對其內容傾向接受的群體。這些人對符合自身世界觀的內容持較低的懷疑態度，甚至會主動擴散明知為假的信息，這使得假資訊的影響力在特定族群內顯得尤為顯著。</p>
<p>此外，社交媒體的演算法進一步強化了「回音室效應」（echo chamber），使得假資訊能在特定群體內迅速傳播。這表示假資訊的挑戰不僅是技術問題，而是與更廣泛的政治兩極化、媒體信任危機，以及社交媒體的商業模式息息相關。</p>
<p>要改善假資訊氾濫，僅僅聚焦於技術管控是不夠的。過去對技術的恐慌，例如針對生成式AI可能引發的假資訊浪潮的擔憂，已被證明過於悲觀。相反地，我們需要認識到結構性挑戰，例如新聞業的衰退、選民教育的不足，以及選舉規範的薄弱，才是假資訊問題的核心所在。</p>
<p>AI生成的政治資訊無疑為民主制度帶來了前所未有的挑戰，但簡化地將假資訊問題歸因於AI技術，無異於忽視其背後更深層的社會與政治問題。正如歷史所示，假資訊問題的解決需要結構性變革，而非寄望於某種技術的限制。</p>
<p>未來我們應超越對技術的恐慌，轉而關注如何塑造一個更具包容性與韌性的資訊環境，從而保障民主的核心價值。畢竟技術不應是破壞民主的工具，而應成為其堅實的後盾。</content></p>
<p>這篇文章 <a rel="nofollow" href="https://www.technice.com.tw/opinion/155920/">AI生成的政治資訊與民主的挑戰｜專家論點【張瑞雄】</a> 最早出現於 <a rel="nofollow" href="https://www.technice.com.tw">科技島-掌握科技新聞、科技職場最新資訊</a>。</p>
]]></description>
		
					<wfw:commentRss>https://www.technice.com.tw/opinion/155920/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">155920</post-id>	</item>
		<item>
		<title>AI技術發展的瓶頸｜專家論點【張瑞雄】</title>
		<link>https://www.technice.com.tw/opinion/150771/</link>
					<comments>https://www.technice.com.tw/opinion/150771/#respond</comments>
		
		<dc:creator><![CDATA[張瑞雄]]></dc:creator>
		<pubDate>Tue, 19 Nov 2024 01:00:00 +0000</pubDate>
				<category><![CDATA[專家論點]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[張瑞雄]]></category>
		<guid isPermaLink="false">https://www.technice.com.tw/?p=150771</guid>

					<description><![CDATA[<p><img width="1200" height="627" src="https://www.technice.com.tw/wp-content/uploads/2024/11/ai-1.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="ai 1" decoding="async" srcset="https://www.technice.com.tw/wp-content/uploads/2024/11/ai-1.jpg 1200w, https://www.technice.com.tw/wp-content/uploads/2024/11/ai-1-300x157.jpg 300w, https://www.technice.com.tw/wp-content/uploads/2024/11/ai-1-1024x535.jpg 1024w, https://www.technice.com.tw/wp-content/uploads/2024/11/ai-1-768x401.jpg 768w" sizes="(max-width: 1200px) 100vw, 1200px" title="AI技術發展的瓶頸｜專家論點【張瑞雄】 10"></p>
<p>在當前的人工智慧發展中，一個重要的話題是「擴展定律」是否仍然有效。在 GPT-4 於 2023 年推出後，這個規律得到了進一步驗證：更大的模型似乎能帶來更高的性能。儘管外界預期 OpenAI 會迅速推出更大、更強的 GPT-5，但距離 GPT-4 的發布已有 18 個月，OpenAI 仍未發布 GPT-5，且執行長Sam Altman 明確表示今年不會推出名為 GPT-5 的模型。反之，OpenAI 近來發布的幾個新模型，像是 GPT-4o 和 o1，性能雖然不俗，但未必比 GPT-4 大，甚至可能更小。<content><!-- wp:paragraph --></p>
<p>作者：張瑞雄 台北商業大學前校長/叡揚資訊顧問</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>在當前的<a href="https://www.technice.com.tw/?s=%E4%BA%BA%E5%B7%A5%E6%99%BA%E6%85%A7" target="_blank" rel="noreferrer noopener">人工智慧</a>發展中，一個重要的話題是「擴展定律」是否仍然有效。在 GPT-4 於 2023 年推出後，這個規律得到了進一步驗證：更大的模型似乎能帶來更高的性能。儘管外界預期 OpenAI 會迅速推出更大、更強的 <a href="https://www.technice.com.tw/?s=GPT-5" target="_blank" rel="noreferrer noopener">GPT-5</a>，但距離 GPT-4 的發布已有 18 個月，<a href="https://www.technice.com.tw/?s=OpenAI" target="_blank" rel="noreferrer noopener">OpenAI</a> 仍未發布 GPT-5，且執行長Sam Altman 明確表示今年不會推出名為 GPT-5 的模型。反之，OpenAI 近來發布的幾個新模型，像是 GPT-4o 和 o1，性能雖然不俗，但未必比 GPT-4 大，甚至可能更小。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:image {"id":150773,"sizeSlug":"large","linkDestination":"none"} --></p>
<figure class="wp-block-image size-large"><img src="https://www.technice.com.tw/wp-content/uploads/2024/11/ai-1-1024x535.jpg" alt="AI 的發展不僅僅是技術上如何擴展，也涉及到資源和成本的平衡。" class="wp-image-150773"/><figcaption class="wp-element-caption">AI 的發展不僅僅是技術上如何擴展，也涉及到資源和成本的平衡。（圖／取自123RF）</figcaption></figure>
<p><!-- /wp:image --></p>
<p><!-- wp:paragraph --></p>
<p>這一趨勢並非 OpenAI 獨有，谷歌和 Anthropic 等其他 AI 實驗室也選擇優化其小型和中型模型，例如谷歌的 Pro 1.5、Flash 1.5 以及 Anthropic 的 Sonnet 3.5、Haiku 3.5，而它們最大的模型更新則遲遲未見。這不禁讓許多專家開始懷疑擴展定律是否已失去效力。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>延伸閱讀：<a href="https://www.technice.com.tw/opinion/149340/" target="_blank" rel="noreferrer noopener">AI教育的挑戰與未來發展方向｜專家論點【張瑞雄】</a></p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>根據《The Information》報導，OpenAI 內部對其下一代代號為 Orion 的模型性能並不滿意，雖然 Orion 的性能優於之前的模型，但與 GPT-3 到 GPT-4 之間的進步相比，增長幅度明顯縮小。彭博社的報導也指出，Google 的 Gemini 和 Anthropic 的 3.5 Opus 同樣未達到內部預期。在這些背景下，AI 實驗室面臨著技術上的瓶頸，擴展模型已無法帶來顯著的性能提升。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>OpenAI 的聯合創辦人 Ilya Sutzkever 表示，過去是「擴展的時代」，而現在又回到「探索與發現的時代」。這段話揭示了一個關鍵點：單純通過擴展模型來提升性能的策略或已接近極限。隨著模型的規模增大，回報卻在逐漸遞減，AI 實驗室可能需要在架構上進行突破，而不只是依賴單純的規模擴展。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>這樣的情況讓人回想到去年 Google 推出 Gemini Ultra 時，性能增長也只是相對有限，未能顯著超越 GPT-4。現在越來越多的證據顯示，這可能是一種結構性的問題。要突破目前的瓶頸，或許需要重新思考語言模型的設計，特別是如何讓它們更有效地處理長篇且複雜的輸入內容，以及如何更深層地理解抽象概念。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>這種「擴展瓶頸」在各大實驗室的探索中逐漸浮現，使得原本的擴展策略顯得不再足夠。AI 實驗室如 OpenAI、Google 和 Anthropic 等在追求更大、更強模型的過程中已逐步走向極限，未來或將需要在基礎技術上進行創新，突破目前大語言模型在架構和訓練方式上的限制。例如，在記憶體管理和長序列處理方面進行突破，讓模型能夠更有效地應對長文本，或以嶄新的推理技術使模型更接近人類的抽象推理能力。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>此外，AI 的發展不僅僅是技術上如何擴展，也涉及到資源和成本的平衡。過度擴展模型不僅需要更大的硬體資源投入，訓練過程所需的能量消耗和碳排放也令人擔憂。AI 面臨的挑戰是如何在不無限制增加成本的情況下，找到有效的成長方式。這意味著未來的發展可能更加注重效率，透過更精細的模型調整、優化訓練方法來達成理想的性能，從而減少對硬體和計算資源的依賴。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>這一趨勢帶來的啟示是，技術創新不僅在於「更大」，也在於「更精巧」。我們可能會看到未來的 AI 研究重心轉向新型架構，例如與類神經網路不同的混合架構或神經圖譜系統，以在推理和計算的基本層面上取得突破。同時，也可能會出現更多多模態 AI 的創新，以拓展模型處理視覺、聲音和文本等不同輸入的能力，使得模型不僅能夠模擬人類的文字輸出，也能整合視覺或其他訊息進行更全面的理解。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>總結來說，當前的 AI 技術發展正面臨著一個「瓶頸期」，而單純透過擴展模型的成長方法已經不再能解決當前面臨的挑戰。AI 需要回到創新和探索的核心，開發新的技術和架構來推動下一波的進展。這將不僅僅是技術的進化，也是思維方式的轉變。AI 技術的發展必須在效能、資源和社會責任之間取得平衡，以達到真正的永續發展。</p>
<p><!-- /wp:paragraph --></content></p>
<p>這篇文章 <a rel="nofollow" href="https://www.technice.com.tw/opinion/150771/">AI技術發展的瓶頸｜專家論點【張瑞雄】</a> 最早出現於 <a rel="nofollow" href="https://www.technice.com.tw">科技島-掌握科技新聞、科技職場最新資訊</a>。</p>
]]></description>
		
					<wfw:commentRss>https://www.technice.com.tw/opinion/150771/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">150771</post-id>	</item>
		<item>
		<title>自動駕駛車輛：數據收集的兩面刃｜專家論點【張瑞雄】</title>
		<link>https://www.technice.com.tw/opinion/142167/</link>
					<comments>https://www.technice.com.tw/opinion/142167/#respond</comments>
		
		<dc:creator><![CDATA[張瑞雄]]></dc:creator>
		<pubDate>Mon, 23 Sep 2024 01:00:00 +0000</pubDate>
				<category><![CDATA[專家論點]]></category>
		<category><![CDATA[張瑞雄]]></category>
		<category><![CDATA[數據]]></category>
		<category><![CDATA[自動駕駛車輛]]></category>
		<guid isPermaLink="false">https://www.technice.com.tw/?p=142167</guid>

					<description><![CDATA[<p><img width="793" height="419" src="https://www.technice.com.tw/wp-content/uploads/2024/09/1-15.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="1 15" decoding="async" srcset="https://www.technice.com.tw/wp-content/uploads/2024/09/1-15.jpg 793w, https://www.technice.com.tw/wp-content/uploads/2024/09/1-15-300x159.jpg 300w, https://www.technice.com.tw/wp-content/uploads/2024/09/1-15-768x406.jpg 768w" sizes="(max-width: 793px) 100vw, 793px" title="自動駕駛車輛：數據收集的兩面刃｜專家論點【張瑞雄】 11"></p>
<p>隨著科技的不斷進步，自動駕駛車輛（Autonomous Vehicle）逐漸成為未來交通的趨勢。這些車輛具備強大的數據收集能力，可以在行駛中獲取大量有關交通狀況、道路危險和乘客行為的數據。但在這些技術帶來的便利背後，也存在著關於隱私和數據安全的嚴重擔憂。<content><!-- wp:paragraph --></p>
<p>作者：張瑞雄（台北商業大學前校長/全球品牌創新永續協會理事長）</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>隨著<a href="https://www.technice.com.tw/?s=%E7%A7%91%E6%8A%80" target="_blank" rel="noreferrer noopener">科技</a>的不斷進步，<a href="https://www.technice.com.tw/?s=%E8%87%AA%E5%8B%95%E9%A7%95%E9%A7%9B%E8%BB%8A" target="_blank" rel="noreferrer noopener">自動駕駛車輛</a>（Autonomous Vehicle）逐漸成為未來交通的趨勢。這些車輛具備強大的數據收集能力，可以在行駛中獲取大量有關交通狀況、道路危險和乘客行為的數據。但在這些技術帶來的便利背後，也存在著關於隱私和<a href="https://www.technice.com.tw/?s=%E6%95%B8%E6%93%9A%E5%AE%89%E5%85%A8" target="_blank" rel="noreferrer noopener">數據安全</a>的嚴重擔憂。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:image {"id":142169,"sizeSlug":"large","linkDestination":"none"} --></p>
<figure class="wp-block-image size-large"><img src="https://www.technice.com.tw/wp-content/uploads/2024/09/self-driving-1024x535.jpg" alt="自動駕駛車輛（Autonomous Vehicle）逐漸成為未來交通的趨勢。" class="wp-image-142169"/><figcaption class="wp-element-caption">自動駕駛車輛（Autonomous Vehicle）逐漸成為未來交通的趨勢。（圖／123RF）</figcaption></figure>
<p><!-- /wp:image --></p>
<p><!-- wp:paragraph --></p>
<p>自動駕駛車輛已在一些國家進行測試，並取得了令人矚目的成果。例如美國猶他州的公共交通系統利用車輛與基礎設施之間的通訊技術，透過與交通信號燈進行即時通信，優化了交通流量，顯著減少了擁堵。這種技術能夠讓車輛在道路上更安全地行駛，降低交通事故的發生率，甚至能夠幫助拯救生命。美國交通部的一項研究顯示，車輛與基礎設施的通訊應用可以防止多達六十幾萬次交通事故，每年拯救近上千條生命。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>更多新聞：<a href="https://www.technice.com.tw/techmanage/infosecurity/95544/" target="_blank" rel="noreferrer noopener">進擊的GenAI   企業增加投資資安因應  保護客戶信任與數據安全</a></p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>隨著這些車輛不斷收集大量的即時數據，關於隱私的問題也隨之而來。這些數據包括車輛的行駛路線、乘客的行為模式，甚至是生物識別信息。儘管目前的數據收集主要是為了提高行車安全性，但也存在著數據被濫用的風險。例如車輛數據可能被用於追蹤個人的行蹤，或者被第三方用於廣告推送。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>自動駕駛車輛所收集的數據遠不止於行駛資訊，還包括乘客的個人資訊。這些車輛可以追蹤乘客的地理位置、車內行為，甚至可以通過連接乘客的智能設備來獲取聯絡人列表和應用使用情況​。更令人擔憂的是，這些數據可能被共享給第三方，例如保險公司、廣告商，甚至可能成為網路攻擊的目標。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>美國目前並沒有針對自動駕駛車輛數據收集的聯邦法律，只有一些州法規對這類數據的收集和使用進行了規範。加州的《消費者隱私法案》（CCPA）和《加州隱私權法案》（CPRA）對於個人數據的收集、使用和銷售設立了一定的限制，要求公司在收集和共享個人數據之前必須徵得用戶的同意，並提供退出機制​，但這些法律的適用範圍和強制力仍然有限。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>面對這樣的挑戰，我們需要在技術發展和隱私保護之間尋求平衡。一方面，自動駕駛車輛的數據收集對於提高道路安全、優化交通管理具有不可否認的重要性；另一方面，如何在保障個人隱私的同時，讓數據發揮其應有的價值，仍然是亟需解決的問題。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>數據匿名化技術的應用可以在一定程度上緩解隱私擔憂，使得個人資料在數據集中難以識別，可以在保護隱私的同時，讓數據得以有效利用。其次應加強對自動駕駛車輛數據收集的監管，在現有法律的基礎上，制定更為完善的法規，對數據的收集、存儲、使用和共享進行全方位的監管，並對違規行為施加更嚴厲的懲罰。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>最後企業也應採取「隱私設計」的理念，在自動駕駛車輛的設計和開發階段就將隱私保護納入考慮。這包括在車輛中內置強大的加密和安全機制，確保數據在傳輸和存儲過程中的安全性，並提供用戶友好的數據管理和控制選項。</p>
<p><!-- /wp:paragraph --></content></p>
<p>這篇文章 <a rel="nofollow" href="https://www.technice.com.tw/opinion/142167/">自動駕駛車輛：數據收集的兩面刃｜專家論點【張瑞雄】</a> 最早出現於 <a rel="nofollow" href="https://www.technice.com.tw">科技島-掌握科技新聞、科技職場最新資訊</a>。</p>
]]></description>
		
					<wfw:commentRss>https://www.technice.com.tw/opinion/142167/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">142167</post-id>	</item>
		<item>
		<title>AI是網路安全兩面刃｜專家論點【張瑞雄】</title>
		<link>https://www.technice.com.tw/opinion/131096/</link>
					<comments>https://www.technice.com.tw/opinion/131096/#respond</comments>
		
		<dc:creator><![CDATA[張瑞雄]]></dc:creator>
		<pubDate>Fri, 23 Aug 2024 01:00:00 +0000</pubDate>
				<category><![CDATA[專家論點]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[張瑞雄]]></category>
		<category><![CDATA[網路安全]]></category>
		<guid isPermaLink="false">https://www.technice.com.tw/?p=131096</guid>

					<description><![CDATA[<p><img width="1200" height="627" src="https://www.technice.com.tw/wp-content/uploads/2024/08/image242.jpg" class="attachment-post-thumbnail size-post-thumbnail wp-post-image" alt="image242" decoding="async" srcset="https://www.technice.com.tw/wp-content/uploads/2024/08/image242.jpg 1200w, https://www.technice.com.tw/wp-content/uploads/2024/08/image242-300x157.jpg 300w, https://www.technice.com.tw/wp-content/uploads/2024/08/image242-1024x535.jpg 1024w, https://www.technice.com.tw/wp-content/uploads/2024/08/image242-768x401.jpg 768w" sizes="(max-width: 1200px) 100vw, 1200px" title="AI是網路安全兩面刃｜專家論點【張瑞雄】 12"></p>
<p>AI工具的推出象徵著提高生產力和簡化工作流程的一個重要里程碑，有望透過自動化日常任務並使每個人都能做出複雜的數據驅動決策來徹底改變我們的工作方式。但與任何強大的工具一樣，AI的雙刃性質既帶來了巨大的機會，也帶來了令人震驚的風險，特別是在網路安全領域。<content><!-- wp:paragraph --></p>
<p>作者：張瑞雄（台北商業大學前校長）</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p><a href="https://www.technice.com.tw/?s=AI" target="_blank" rel="noreferrer noopener">AI</a>工具的推出象徵著提高生產力和簡化工作流程的一個重要里程碑，有望透過<a href="https://www.technice.com.tw/?s=%E8%87%AA%E5%8B%95%E5%8C%96" target="_blank" rel="noreferrer noopener">自動化</a>日常任務並使每個人都能做出複雜的<a href="https://www.technice.com.tw/?s=%E6%95%B8%E6%93%9A" target="_blank" rel="noreferrer noopener">數據</a>驅動決策來徹底改變我們的工作方式。但與任何強大的工具一樣，AI的雙刃性質既帶來了巨大的機會，也帶來了令人震驚的風險，特別是在網路安全領域。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:image {"id":137002,"sizeSlug":"large","linkDestination":"none"} --></p>
<figure class="wp-block-image size-large"><img src="https://www.technice.com.tw/wp-content/uploads/2024/08/image242-1024x535.jpg" alt="" class="wp-image-137002"/><figcaption class="wp-element-caption">AI的雙刃性質既帶來了巨大的機會，也帶來了令人震驚的風險，特別是在網路安全領域。（圖／123RF）</figcaption></figure>
<p><!-- /wp:image --></p>
<p><!-- wp:paragraph --></p>
<p>AI助手可以無縫整合到一些應用中，例如幫助用戶瀏覽電子郵件、視訊聊天和編輯文檔，以及快速高效地檢索資訊。此功能雖然有利於提高工作效率，但也為惡意行為者提供了一個誘人的目標。透過一些簡單的提示即可檢索、編譯和操作來自各種來源的資料的能力就是AI如此強大但又如此危險的原因。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>AI在被惡意操縱時可以變成高效的網路攻擊工具，例如一旦駭客獲得了使用者電子郵件的存取權限，AI就可以用來起草模仿使用者寫作風格的網路釣魚電子郵件，使它們與合法電郵幾乎無法區分。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>這種能力不僅僅是一種假設的威脅，AI生成的網路釣魚攻擊的複雜性可能會大大提高其有效性，因為這些電子郵件將以前所未有的個人化為其收件人量身定製，此類技術被濫用的可能性凸顯了對超越傳統防禦的強大安全措施的需求。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>AI帶來的挑戰遠遠超出了簡單的網路釣魚，AI可以繞過安全措施並提取敏感資料。例如用巧妙措詞的提示來欺騙AI顯示私人訊息，或者透過引導受害者將銀行資訊輸入詐騙帳號來操縱AI執行有利於攻擊者的金融交易。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>與傳統軟體不同的是，AI的運作方式並不總是可預測的，即使對於其建立者也是如此，這種不可預測性使得我們很難預測AI可能被利用的所有可能方式。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>此外AI與企業環境的整合加劇了現有的安全弱點，許多組織都在努力妥善管理存取權限和保護資料，當AI系統獲得數位王國的鑰匙時，這個問題只會變得更加複雜。AI與管理不善的數據存取相結合，為潛在的違規行為創造了一場完美風暴。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>AI在網路安全中的作用並不完全是負面的，例如AI可用於自動偵測網路流量中的異常模式，比人類更快標記潛在威脅。它還可以透過快速關聯多個來源的資料來協助事件回應，更清晰地了解正在進行的攻擊。但好處並不能消除風險，企業需要採取更細緻的AI部署方法。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>關鍵涉及監控AI系統產生的內容並確保其輸出與預期用法保持一致，特別是在AI有權存取敏感資料的環境中。AI系統的設計從一開始就應考慮到安全性，納入針對已知攻擊方法的防護措施。</p>
<p><!-- /wp:paragraph --></p>
<p><!-- wp:paragraph --></p>
<p>AI提醒人們在沒有充分理解新技術意義的情況下倉促採用的危險，雖然AI有可能改變我們的工作方式，但它更有可能破壞網路安全的基礎。駕馭這一兩面刃的關鍵是保持警惕、人機協作以及對建立與創新相匹配的安全措施。</p>
<p><!-- /wp:paragraph --></content></p>
<p>這篇文章 <a rel="nofollow" href="https://www.technice.com.tw/opinion/131096/">AI是網路安全兩面刃｜專家論點【張瑞雄】</a> 最早出現於 <a rel="nofollow" href="https://www.technice.com.tw">科技島-掌握科技新聞、科技職場最新資訊</a>。</p>
]]></description>
		
					<wfw:commentRss>https://www.technice.com.tw/opinion/131096/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">131096</post-id>	</item>
	</channel>
</rss>
