删帖了

e9f4d68g
删帖了
删了删了删了OK!
coukou111别字小鬼
Re: 呜呜呜求个姐姐管住我😭
讲道理这个事找个ai也能办了(x)
e9f4d68g
Re: Re: 呜呜呜求个姐姐管住我😭
coukou111讲道理这个事找个ai也能办了(x)
AI在我眼里就是工具,管不了我一点
coukou111别字小鬼
Re: Re: Re: 呜呜呜求个姐姐管住我😭
e9f4d68g
coukou111讲道理这个事找个ai也能办了(x)
AI在我眼里就是工具,管不了我一点
请允许我继续提问,这并非质疑,我也没有预设答案,我想通过提问来得到你的想法:
你觉得ai管不了你是因为它是工具,那么你对“管住你”的要求是什么?是独立的人格吗?还是足够高的智商,还是能判断你是否能释放的准确度?
e9f4d68g
Re: Re: Re: Re: 呜呜呜求个姐姐管住我😭
coukou111
e9f4d68g
coukou111讲道理这个事找个ai也能办了(x)
AI在我眼里就是工具,管不了我一点
请允许我继续提问,这并非质疑,我也没有预设答案,我想通过提问来得到你的想法:
你觉得ai管不了你是因为它是工具,那么你对“管住你”的要求是什么?是独立的人格吗?还是足够高的智商,还是能判断你是否能释放的准确度?
人怎么可能被AI束缚呢?AI激发不了我的羞耻心,比如我可以轻易想AI申请我想用ntr片子起飞了而且要代入苦主,但我根本不敢向女性朋友这么申请,我自己的羞耻心做不到。管住我的是和我稍稍不同的思想,是我不知道对方会怎么想我的行为,我也不能从对方的行为摸清对方的想法。至于AI,你需要理解大语言模型后理解我的想法
Ch
Checkmate531
Re: Re: Re: Re: Re: 呜呜呜求个姐姐管住我😭
e9f4d68g
coukou111
e9f4d68g
coukou111讲道理这个事找个ai也能办了(x)
AI在我眼里就是工具,管不了我一点
请允许我继续提问,这并非质疑,我也没有预设答案,我想通过提问来得到你的想法:
你觉得ai管不了你是因为它是工具,那么你对“管住你”的要求是什么?是独立的人格吗?还是足够高的智商,还是能判断你是否能释放的准确度?
人怎么可能被AI束缚呢?AI激发不了我的羞耻心,比如我可以轻易想AI申请我想用ntr片子起飞了而且要代入苦主,但我根本不敢向女性朋友这么申请,我自己的羞耻心做不到。管住我的是和我稍稍不同的思想,是我不知道对方会怎么想我的行为,我也不能从对方的行为摸清对方的想法。至于AI,你需要理解大语言模型后理解我的想法
你可以设定AI在发现越界后把内容发邮件/微信/朋友圈给你的亲人/同事/同学,aka blackmail。这样你应该就不敢了
e9f4d68g
Re: 呜呜呜求个姐姐管住我😭
理解不了用AI管理自己,并且永不考虑用AI管理自己
coukou111别字小鬼
Re: Re: Re: Re: Re: 呜呜呜求个姐姐管住我😭
e9f4d68g
coukou111
e9f4d68g
coukou111讲道理这个事找个ai也能办了(x)
AI在我眼里就是工具,管不了我一点
请允许我继续提问,这并非质疑,我也没有预设答案,我想通过提问来得到你的想法:
你觉得ai管不了你是因为它是工具,那么你对“管住你”的要求是什么?是独立的人格吗?还是足够高的智商,还是能判断你是否能释放的准确度?
人怎么可能被AI束缚呢?AI激发不了我的羞耻心,比如我可以轻易想AI申请我想用ntr片子起飞了而且要代入苦主,但我根本不敢向女性朋友这么申请,我自己的羞耻心做不到。管住我的是和我稍稍不同的思想,是我不知道对方会怎么想我的行为,我也不能从对方的行为摸清对方的想法。至于AI,你需要理解大语言模型后理解我的想法
道德层面的压力,和对方行为的不可预知性啊……多少可以理解了。那么的确是非人不可——至少你需要主观认知对方为人。

但如果有第三方,给ai设置了一系列随机规则,并不告知你其是否为人。你们的聊天被限制在单纯的管控行为中,也就是你基本无法分清对方是否为人——这种时候可以达到欺骗你而控制你的情况吗?
Vo
vov1
Re: 呜呜呜求个姐姐管住我😭
如果把人类的生理、意识、社会文化发展速度和ai的发展速度作为中心考虑,假设不限制ai发展,那么大抵終是要被管理的……
coukou111别字小鬼
Re: Re: 呜呜呜求个姐姐管住我😭
vov1如果把人类的生理、意识、社会文化发展速度和ai的发展速度作为中心考虑,假设不限制ai发展,那么大抵終是要被管理的……
一个很有意思的问题,我也想听听其他人的回答:有一个很关键的区别在于,ai思考的方式和人类是完全不同的,尽管对于一件同样的事情有同样的答案,但思维的原理是不同的。还有一点就是,ai是没有真正的“自由意志”的。比如你提问,ai一定会“回答”,但人类可以选择不回答,或者干脆去干别的事之后很久再回答。当然你可以给ai设定“概率不回答”,但如果你设定了这一点,那么ai就一定会“概率不回答”。这是因其作为工具而保证的稳定性。那么没有自由意志的ai就一定不会是一个独立个体。一个无主权的东西又怎么能管理一个独立个体呢?

根据上面的思考,我认为ai和人类的区别是不能通过发展速度来判定的,两者走得根本就不是同一条道路,ai走得越远,只会在工具的道路上越发登峰造极。

不知道您有何见解w
Ch
Checkmate531
Re: Re: Re: 呜呜呜求个姐姐管住我😭
coukou111
vov1如果把人类的生理、意识、社会文化发展速度和ai的发展速度作为中心考虑,假设不限制ai发展,那么大抵終是要被管理的……
一个很有意思的问题,我也想听听其他人的回答:有一个很关键的区别在于,ai思考的方式和人类是完全不同的,尽管对于一件同样的事情有同样的答案,但思维的原理是不同的。还有一点就是,ai是没有真正的“自由意志”的。比如你提问,ai一定会“回答”,但人类可以选择不回答,或者干脆去干别的事之后很久再回答。当然你可以给ai设定“概率不回答”,但如果你设定了这一点,那么ai就一定会“概率不回答”。这是因其作为工具而保证的稳定性。那么没有自由意志的ai就一定不会是一个独立个体。一个无主权的东西又怎么能管理一个独立个体呢?

根据上面的思考,我认为ai和人类的区别是不能通过发展速度来判定的,两者走得根本就不是同一条道路,ai走得越远,只会在工具的道路上越发登峰造极。

不知道您有何见解w
思维过程这个问题,我觉得即使是人在思考复杂问题的时候,依然会有一个思考过程, 类似于思维链。以我自己的感受来说,这个思考过程是跟语言相关的,我能用中文或者英文思考,但是我不能用一个我不熟悉的语言思考。而学习语言很大程度上我们是在学习常用组合,比如说你听到一个人说“一辆鞋子”你就会怀疑对面是不是中文母语者,因为一般情况下辆和鞋子组合的概率太小了。这种选取最大概率的选项基本和LLM原理相近。
另一方面说,即使是人,即便我们得出一样的结论,我们也不知道别人和我们思考过程是不是一样的。

人有没有自由意志这个问题现在应该也没有标准答案。我是倾向于怀疑自由意志的。我们的决策看似是我们自己做的,但是它有我们过去经历经验的影子,也许还有点生物基因上的影响。
AI的提示词也不是决定性的,而且一般做Agent的话,初始提示词和记忆很多时候都是同样放在系统提示词里面的。如果我们让Agent不断地试错,写入记忆的话,特别是当任务目标和初始提示词有冲突的时候,它是有可能违背初始提示词的。一个常见的例子就是早期llm越狱写黄文,它的初始提示词肯定是不让写,但是用户通过注入,是可以让它无视初始指令的。这个点主要是AI指令不一定需要来自于人(不考虑安全因素),它可以来自于环境。