有没有哪些科学技术可以实现,但因为伦理不能实现?
基因编辑技术,去年中国科学家贺建奎不就是搞了一个基因编辑婴儿DNA的事件,闹得沸沸扬扬的。这种技术本身来讲,技术是可以实现的,但是伦理上也存在很大的问题,同时给人类社会埋下了很大的隐患。贺建奎虽然表示,这种操作可以让孩子对艾滋病有天然的免疫力,但是实际上这项技术充满了为止的风险,是非常不道德的。很多人可能到现在都不是很清楚,风险来自哪里,修改基因似乎是一件好事儿。
这对婴儿在在受精卵时期被修改了CCR5基因,但是其实孩子的母亲并不是艾滋病患者,其实只要做好防护措施,孩子根本不会感染艾滋病。但是基因编辑技术本身存在非常大的风险,很多地方并没有得到完善。在进行修改的过程中很容出现“脱靶”的情况,把原本人体当中正常的基因给破坏了,会导致非常严重,而且难以预计的遗传疾病的风险。
所以贺建奎的操作不符合我们人类世界的伦理道德的底线。受到编辑的婴儿长大后,这次的基因修改还会影响他们的后代,子子孙孙。他们接受过修改的基因会慢慢的融入到人类的群体中,这里不排除因为脱靶造成误伤的那些基因。因为没有办法预知这些基因到底会造成什么后果,我们需要很多年才知道,这付出的代价太大了,而是需要整个人类群体去承担的,风险太高。
如果这个口子一旦打开,基因编辑技术会不会摧毁我们人类?社会本来就是资源不平等,能里有大有小,但是至少目前我们还是可以通过知识来改变命运,就算是富人的家庭也存在“富不过三代”的忧虑。如果孩子的基因可以编辑的口子被打开,就太要命了,太可怕了。我想让我的孩子更高一点,相貌更漂亮些,智商更高一些。这些编辑过的基因是可以遗传的,这些人的后代继承了这种优秀的基因,那么其他人的孩子呢?他们还怎么竞争呢?这个社会会变成什么样子呢?随意基因编辑技术真的是一项既有人类期望和美好愿望的技术,但是同时仿佛也是一条通往无边深渊的技术。
科学技术与人的生存伦理问题属于科技伦理吗,如何判断?
当然是。科技伦理通常是从人类生存和发展的角度提出的,是科技伦理的基本论据和基础利益出发点。科技伦理是处理科学技术研究和应用活动中人与人、人与社会、人与自然关系的道德规范和行为准则。科技伦理可以从观念、道德、社会层面上规范人们从事科技活动的行为,是从事科学技术研究工作和科学技术应用工作的人们应恪守的价值观念、社会责任和行为规范。
头条上关于机器人和人工智能的问题,为何都是哲学伦理方面,而不是技术知识的?
因为从哲学伦理理论来解释会比较通俗易懂,很多人对人工智能方面都是停留猜测层面,以哲学伦理作为切入点让人从心理层面接受,就可以消除焦虑。而从技术层面的解释需要从开发者的目的,运行原理,适用范围,处于哪个阶段,会对人类生活带来的影响,有哪些需要改进,需要结合的知识,是不是合理这些层面进行抽丝剥茧,文章需要大量的事例,而且看头条的人多数对这些知识了解有限,另外这些技术知识有一些不宜公开或者还需要完善,大大加大写作的难度,需要耗费大量的时间和精力,所以造成写技术知识文章的少之又少。
人工智能研究是否应当像基因技术研究一样,设立严格的研究伦理禁区,以免创造出拥有人类情感的强人工智能?
这个问题在逻辑链上本身就有问题。禁区的建立是要先有建立禁区的资格。人工智能是否能有人类的情怀在于人们是否具备能力能让它具备人类的情怀,说到底还是人们自身的问题。举个例子:你给小朋友们讲微积分,然后让他们用微积分解决实际问题,或是给失明失聪的人电影票。他们可能会回应你听不懂或者无视你,即使你用尽可能将这一信息告诉双失的那个人,也有可能得到你是神经病的回应。
人工智能的产品是给需要的人生产的,但需要不是用人工智能就最好。如果出题人是在用自己的价值观去判定和他可能毫无关系的人工智能是否能满足她生存和发展的需求,未找到答案,然后慌乱的向外求所。能用就用,用就要承担用的责任,光进不出的那是貔貅。另外,人工智能也是有强弱之分的,在弱中有强,强中也有弱,不能一杆子划定一切,这样非黑即白的认知逻辑就现在而言已经是被淘汰的认知逻辑,再去谈人工智能,已经是在制造混乱了,还要要我给你帮衬,和你一起傻。