最後,作者承認開發AI的過程中,很難真正平等地將動物與人類的利益納入考量,有些限制來自技術的本身,例如:自動駕駛汽車的設備可能不具感知能力,因此無法於行進過程中避開小型動物。即使 AI 開發人員的產品能達到這種偵測水準,技術上卻也可能使這種AI 系統變得笨重或難以銷售。其他限制則與終端用戶的道德觀點有關,例如,消費者可能不希望自動駕駛汽車會因為整條道路都位於海蟹遷徙路徑而避開。
可惜的是,要創造出能夠平等考慮人類和動物利益的人工智慧技術希望不大。作者提出兩種因應方法:由上而下的訓練與由下而上的訓練。開發人員會替由上而下的模型選擇一個道德框架,並教 AI 系統遵循,但要做到這點,開發者就必須事先做出艱難的道德判斷,比如選擇哪些生物具有道德地位(moral status),以及如何進行道德取捨。由下而上模型中的人工智慧系統則是採用“邊走邊學”的模式,透過獎勵來塑造行為。
然而,由於人類社會基本上會歧視物種,這意味著人工智慧可能也會因為採取物種歧視的觀念而受到獎勵。 人工智慧雖然急速成了我們日常生活的一部分,但許多技術仍處於起步階段,因此本文主要還是從理論方面來談。然而,動保人士可以發揮他們的影響力,促使AI 倫理將動物進一步納入考量。例如提供 AI 立法與動物立法的意見,或經由加入顧問小組,提供他們對於人工智慧系統和動物行為的想法,並呼籲大眾應在推動科技進步的同時,考量到動物的利益。