Audio and text versions of this post can be found below in the following languages:
English
Français
Español
官话
عربي
हिन्दी
Links to more information about things mentioned in the episode:
English
Audio:
Transcript:
Welcome to another episode of the Bible translation technology podcast, called Tech and Testament. This podcast is presented by the Every Tribe Every Nation Innovation Lab and is curated by me, Daniel Whitenack, founder and CEO at Prediction Guard. Each episode of Tech and Testament will provide updates on advancements in artificial intelligence and language technology. We will also reflect on how this technology might impact or intersect with Bible translation.
As a reminder you can find translations of the show into French, Spanish, Hindi, Mandarin, and Arabic on our substack page. And let’s practice some community checking. Please let us know if you find errors in these translations, so we can improve the translation quality.
Now… to the latest news from the AI world! It’s been quite a month, so there is a lot to cover.
First off, we saw US president Biden release an executive order on AI. Although things in the executive order could be overturned by congress, the executive order does have the force of law. This distinguishes the order from past US guidance on AI, and it means that AI is now officially regulated at the federal level. Similar moves to regulation are happening in Europe with the recent AI Act and Bletchley Declaration.
So what can be learned from these efforts to regulate AI, and how might it influence our efforts to apply advanced technologies within Bible Translation?
Well, to begin with, I think that we can take some hints from the executive order with regards to AI safety and testing. The order requires developers of large AI systems (like OpenAI or Google) to share the results of safety tests with the US government prior to the release of these models or systems. These safety tests need to include what is called “red-teaming,” which is the practice of pretending to be an adversary or abuser of the AI system and reporting how the system behaves under such conditions. For example, a red team might actively try to prompt an AI system to output offensive or dangerous content.
For Bible translation teams applying AI, I think that we should have at least as high a standard of safety and quality as commercial organizations. Those creating AI-driven assistants for translators or consultants should consider a wide range of inputs and uses of their systems beyond the “happy path” that is expected. What if we put in unexpected inputs to our systems like unique scripts, prompts that attempt to retrieve system or location information, prompts that attempt to make systems respond in toxic or offensive ways, changes to Bible text passages that try to confuse quality checks, or inputs that include personally identifying information that might be leaked to system outputs? What would we find about how our AI-driven functionalities are perturbed or misbehave? Should we expect organizations to provide these kinds of red-teaming results as part of what they deliver to internal or external stakeholders?
Next, Bible translators might want to consider ideas presented in the executive order related to watermarking AI outputs. “Watermarking” AI outputs is the practice of intentionally marking AI outputs with some kind of transparent data transformation, such that AI outputs can be distinguished from human outputs.
Those developing AI systems to create suggestions for drafting, first drafts of back or forward translations, answers to questions, drafts of translator resources, and more might consider including a watermark on these outputs. This would help those working in quality assurance know what has been edited and reviewed by human translators and what might be raw output from the computer. A suggestion like this is not meant to imply that all outputs from computers need to be modified, as hopefully many outputs will be quite good. However, a sanity check may be good before passing raw computer outputs through quality checking processes, and retrospective review and critiques of translations or resources would benefit from discriminating from raw computer outputs and human generated outputs.
The executive order from Biden discusses a number of other things, and, if you have time, I recommend that you at least take a look at the fact sheet put out by the white house. That is linked in the show notes of this episode on Substack.
Now, in other news, it seems like OpenAI continues to dominate the AI news cycle. They recently held their DevDay, which included a number of exciting announcements. As mentioned in a previous episode of this podcast, OpenAI’s latest tooling includes unique multimodal capabilities that can process and output text, images, and speech. This theme continued during their DevDay. However, they also announced very interesting functionality allowing developers to more easily create assistive AI apps that accomplish goals and interact with your data and tools.
That is all very exciting, and OpenAI seemed to be on top of the world. Then, in a very unexpected and somewhat confusing turn of events, OpenAI announced that they had ousted their CEO Sam Altman and that he wouldn’t be returning to the job. Soon after Microsoft, who owned a large percentage of OpenAI, announced that they had hired Sam Altman to run an AI research division within Microsoft.
It seems that OpenAI’s board was not comfortable with the former CEO’s transparency or his ability to supervise the growing company. There seemed to be disagreements related to the amount of caution that should be taken in developing the latest AI technologies. As the New York Times puts it, this seems to represent a “rift in the A.I. community between people who believe A.I. is the most important new technology since web browsers and others who worry that moving too fast to develop it could be dangerous.”
As we reflect on these developments, I would like to highlight a few things relevant to our context. In contrast to those operating with uncertainty in industry, we can take hope in knowing that God is not taken by surprise by AI, and there is no chance of AI technologies disrupting God’s purposes in the world and his mission of bringing the gospel to all nations. Further, we should pray for those in our governments and leading tech giants as they wrestle with AI regulations and appropriate safeguards. These entities are providing us with the common grace of best practices like red-teaming and watermarking. Lastly, let’s be at the forefront of developing and demonstrating trustworthy AI practices as we accelerate to accomplish the All Access Goals. We can intentionally apply this technology and use wisdom to implement guidance from those thinking deeply about best practices. In this way, we can both accelerate our efforts and demonstrate Godly wisdom to those in industry asking difficult questions.
If you want to find out more about these developments, check out the links in the show notes. Thanks for listening, and look for another episode of Tech and Testament soon.
Español
Audio:
Transcripción
Bienvenido a otro episodio del podcast sobre tecnología de traducción de la Biblia, llamado Tecnología y testamento. Este podcast es presentado por el laboratorio de innovación de Every Tribe Every Nation y está comisariado por mí, Daniel Whitenack, fundador y director ejecutivo de Prediction Guard. Cada episodio de Tech and Testament proporcionará actualizaciones sobre los avances en inteligencia artificial y tecnología del lenguaje. También reflexionaremos sobre cómo esta tecnología podría afectar o intersecarse con la traducción de la Biblia.
Como recordatorio, puedes encontrar traducciones de la serie al francés, español, hindi, mandarín y árabe en nuestra página principal. Y practiquemos algunas comprobaciones comunitarias. Háganos saber si encuentra errores en estas traducciones para que podamos mejorar la calidad de la traducción.
Ahora... ¡a por las últimas noticias del mundo de la IA! Ha pasado un buen mes, así que hay mucho que cubrir.
En primer lugar, vimos al presidente de los Estados Unidos, Biden, publicar una orden ejecutiva sobre la IA. Si bien las disposiciones de la orden ejecutiva podrían ser revocadas por el Congreso, la orden ejecutiva tiene fuerza de ley. Esto distingue la orden de las anteriores directrices estadounidenses sobre la IA y significa que la IA ahora está regulada oficialmente a nivel federal. En Europa se están tomando medidas similares en materia de regulación con la reciente Ley de IA y la Declaración de Bletchley.
Entonces, ¿qué podemos aprender de estos esfuerzos para regular la IA y cómo podrían influir en nuestros esfuerzos por aplicar tecnologías avanzadas a la traducción de la Biblia?
Bueno, para empezar, creo que podemos tomar algunas sugerencias de la orden ejecutiva con respecto a la seguridad y las pruebas de la IA. La orden exige que los desarrolladores de grandes sistemas de inteligencia artificial (como OpenAI o Google) compartan los resultados de las pruebas de seguridad con el gobierno de EE. UU. antes de publicar estos modelos o sistemas. Estas pruebas de seguridad deben incluir lo que se denomina «equipo rojo», que es la práctica de hacerse pasar por un adversario o un abusador del sistema de IA e informar sobre el comportamiento del sistema en esas condiciones. Por ejemplo, un equipo rojo podría intentar activamente hacer que un sistema de IA muestre contenido ofensivo o peligroso.
En cuanto a los equipos de traducción de la Biblia que utilizan la IA, creo que deberíamos tener un estándar de seguridad y calidad al menos tan alto como el de las organizaciones comerciales. Quienes creen asistentes basados en la inteligencia artificial para traductores o consultores deberían tener en cuenta una amplia gama de insumos y usos de sus sistemas que vayan más allá del «camino feliz» esperado. ¿Qué pasa si introducimos entradas inesperadas en nuestros sistemas, como secuencias de comandos únicas, indicaciones que intentan recuperar información del sistema o ubicación, indicaciones que intentan hacer que los sistemas respondan de manera tóxica u ofensiva, cambios en pasajes de textos bíblicos que intentan confundir los controles de calidad o entradas que incluyen información de identificación personal que podría filtrarse a las salidas del sistema? ¿Qué descubriríamos acerca de la forma en que nuestras funcionalidades basadas en la IA se alteran o se comportan mal? ¿Deberíamos esperar que las organizaciones proporcionen este tipo de resultados combinados como parte de lo que ofrecen a las partes interesadas internas o externas?
A continuación, es posible que los traductores de la Biblia deseen considerar las ideas presentadas en la orden ejecutiva relacionadas con la asignación de marcas de agua a los productos de la IA. La «marca de agua» es la práctica de marcar intencionadamente los resultados de la IA con algún tipo de transformación de datos transparente, de manera que los resultados de la IA puedan distinguirse de los resultados de la IA humana.
Quienes desarrollen sistemas de inteligencia artificial para crear sugerencias de redacción, primeros borradores de traducciones hacia atrás o hacia adelante, respuestas a preguntas, borradores de recursos para traductores, etc., podrían considerar la posibilidad de incluir una marca de agua en estos resultados. Esto ayudaría a quienes trabajan en el campo del control de calidad a saber qué ha sido editado y revisado por traductores humanos y cuáles podrían ser los resultados sin procesar del ordenador. Una sugerencia como esta no implica que todos los resultados de los ordenadores tengan que modificarse, ya que es de esperar que muchos de ellos sean bastante buenos. Sin embargo, puede ser conveniente comprobar la cordura antes de pasar los productos informáticos sin procesar por procesos de control de calidad, y la revisión retrospectiva y las críticas de las traducciones o los recursos se beneficiarían si se discriminaran entre los productos informáticos sin procesar y los generados por humanos.
La orden ejecutiva de Biden aborda una serie de otras cosas y, si tiene tiempo, le recomiendo que al menos eche un vistazo a la hoja informativa publicada por la Casa Blanca. Eso está enlazado en las notas del programa de este episodio de Substack.
Ahora, en otras noticias, parece que OpenAI sigue dominando el ciclo de noticias sobre IA. Recientemente celebraron su DevDay, que incluyó una serie de interesantes anuncios. Como se mencionó en un episodio anterior de este podcast, las herramientas más recientes de OpenAI incluyen capacidades multimodales únicas que pueden procesar y generar texto, imágenes y voz. Este tema continuó durante su DevDay. Sin embargo, también anunciaron una funcionalidad muy interesante que permite a los desarrolladores crear más fácilmente aplicaciones de IA de asistencia que cumplan sus objetivos e interactúen con sus datos y herramientas.
Todo eso es muy emocionante, y OpenAI parecía estar en la cima del mundo. Luego, en un giro inesperado y un tanto confuso, OpenAI anunció que había destituido a su director ejecutivo Sam Altman y que no volvería a ocupar el puesto. Poco después, Microsoft, que poseía un gran porcentaje de OpenAI, anunció que había contratado a Sam Altman para dirigir una división de investigación de IA en Microsoft.
Parece que el consejo de administración de OpenAI no se sentía cómodo con la transparencia del anterior director ejecutivo ni con su capacidad para supervisar la empresa en crecimiento. Parece haber desacuerdos en relación con la cantidad de cautela que debe tomarse al desarrollar las últimas tecnologías de inteligencia artificial. Como dice el New York Times, esto parece representar una «brecha en la comunidad de la IA entre quienes creen que la IA es la nueva tecnología más importante desde los navegadores web y otros que temen que avanzar demasiado rápido para desarrollarla pueda resultar peligroso».
Al reflexionar sobre estos avances, me gustaría destacar algunos aspectos relevantes para nuestro contexto. A diferencia de quienes trabajan con incertidumbre en la industria, podemos tener la esperanza de saber que la inteligencia artificial no sorprende a Dios y que no hay posibilidad de que las tecnologías de inteligencia artificial interrumpan los propósitos de Dios en el mundo y su misión de llevar el evangelio a todas las naciones. Además, debemos orar por los miembros de nuestros gobiernos y los principales gigantes tecnológicos en su lucha por establecer las normas de inteligencia artificial y las salvaguardias adecuadas. Estas entidades nos brindan la gracia común de las mejores prácticas, como la creación de equipos rojos y la creación de marcas de agua. Por último, pongámonos a la vanguardia del desarrollo y la demostración de prácticas de IA confiables a medida que aceleramos el logro de los objetivos de acceso total. Podemos aplicar esta tecnología de manera intencional y utilizar la sabiduría para implementar las directrices de quienes reflexionan profundamente sobre las mejores prácticas. De esta manera, podemos acelerar nuestros esfuerzos y demostrar la sabiduría divina a quienes en la industria hacen preguntas difíciles.
Si quieres obtener más información sobre estas novedades, consulta los enlaces de las notas del programa. Gracias por escuchar y esperad pronto otro episodio de Tech and Testament.
Français
l'audio
Transcription
Bienvenue dans un autre épisode du podcast sur les technologies de traduction de la Bible, intitulé Tech and Testament. Ce podcast est présenté par le Every Tribe Every Nation Innovation Lab et est organisé par moi, Daniel Whitenack, fondateur et PDG de Prediction Guard. Chaque épisode de Tech and Testament fournira des mises à jour sur les avancées en matière d'intelligence artificielle et de technologie linguistique. Nous réfléchirons également à la manière dont cette technologie pourrait avoir un impact ou se croiser avec la traduction de la Bible.
Pour rappel, vous trouverez les traductions de l'émission en français, espagnol, hindi, mandarin et arabe sur notre page secondaire. Et pratiquons un peu le community checking. Veuillez nous informer si vous trouvez des erreurs dans ces traductions afin que nous puissions améliorer la qualité de la traduction.
Passons maintenant aux dernières nouvelles du monde de l'IA ! Cela fait un bon mois, il y a donc beaucoup de choses à couvrir.
Tout d'abord, nous avons vu le président américain Biden publier un décret sur l'IA. Bien que certaines dispositions du décret puissent être annulées par le Congrès, le décret a force de loi. Cela distingue l'ordonnance des directives américaines antérieures sur l'IA, et cela signifie que l'IA est désormais officiellement réglementée au niveau fédéral. Des évolutions similaires en matière de réglementation sont en cours en Europe avec la récente loi sur l'IA et la Déclaration de Bletchley.
Que pouvons-nous donc apprendre de ces efforts visant à réglementer l'IA, et comment pourraient-ils influencer nos efforts visant à appliquer des technologies de pointe à la traduction de la Bible ?
Eh bien, pour commencer, je pense que nous pouvons tirer quelques indications du décret en ce qui concerne la sécurité et les tests de l'IA. La commande oblige les développeurs de grands systèmes d'IA (comme OpenAI ou Google) à partager les résultats des tests de sécurité avec le gouvernement américain avant la sortie de ces modèles ou systèmes. Ces tests de sécurité doivent inclure ce que l'on appelle le « red teaming », c'est-à-dire la pratique consistant à se faire passer pour un adversaire ou un agresseur du système d'IA et à signaler le comportement du système dans de telles conditions. Par exemple, une équipe rouge peut essayer activement d'inciter un système d'IA à produire du contenu offensant ou dangereux.
Pour les équipes de traduction de la Bible qui utilisent l'IA, je pense que nous devrions avoir des normes de sécurité et de qualité au moins aussi élevées que celles des organisations commerciales. Ceux qui créent des assistants pilotés par l'IA pour les traducteurs ou les consultants devraient envisager un large éventail d'entrées et d'utilisations de leurs systèmes au-delà de la « voie heureuse » attendue. Et si nous introduisions des informations inattendues dans nos systèmes, telles que des scripts uniques, des instructions qui tentent de récupérer des informations sur le système ou des informations de localisation, des instructions qui tentent de faire réagir les systèmes de manière toxique ou offensive, des modifications de passages de textes bibliques qui tentent de brouiller les contrôles de qualité, ou des entrées contenant des informations d'identification personnelle susceptibles d'être divulguées aux sorties du système ? Que découvririons-nous sur la façon dont nos fonctionnalités pilotées par l'IA sont perturbées ou se comportent mal ? Devons-nous nous attendre à ce que les organisations fournissent ce type de résultats d'équipe rouge dans le cadre de ce qu'elles fournissent aux parties prenantes internes ou externes ?
Ensuite, les traducteurs de la Bible voudront peut-être examiner les idées présentées dans le décret concernant le filigranage des résultats de l'IA. Le « filigranage » des résultats de l'IA est la pratique qui consiste à marquer intentionnellement les résultats de l'IA avec une sorte de transformation des données transparente, de telle sorte que les résultats de l'IA puissent être distingués des résultats humains.
Ceux qui développent des systèmes d'IA pour créer des suggestions de rédaction, des premières ébauches de traductions antérieures ou antérieures, des réponses aux questions, des brouillons de ressources pour les traducteurs, etc. pourraient envisager d'inclure un filigrane sur ces résultats. Cela aiderait les personnes travaillant dans le domaine de l'assurance qualité à savoir ce qui a été édité et révisé par des traducteurs humains et ce qui pourrait être une sortie brute provenant de l'ordinateur. Une telle suggestion ne signifie pas que toutes les sorties des ordinateurs doivent être modifiées, car j'espère que de nombreuses sorties seront assez bonnes. Toutefois, il peut être utile de procéder à une vérification de l'intégrité des résultats informatiques bruts avant de les soumettre à des processus de contrôle de qualité, et un examen rétrospectif et une critique des traductions ou des ressources gagneraient à faire une distinction entre les résultats informatiques bruts et les résultats générés par l'homme.
Le décret de Biden aborde un certain nombre d'autres sujets et, si vous avez le temps, je vous recommande au moins de consulter la fiche d'information publiée par la Maison Blanche. Cela est lié dans les notes de l'émission de cet épisode sur Substack.
Maintenant, par ailleurs, il semble qu'OpenAI continue de dominer le cycle de l'actualité de l'IA. Ils ont récemment organisé leur DevDay, qui comprenait un certain nombre d'annonces intéressantes. Comme mentionné dans un épisode précédent de ce podcast, les derniers outils d'OpenAI incluent des capacités multimodales uniques qui permettent de traiter et de produire du texte, des images et de la parole. Ce thème s'est poursuivi lors de leur DevDay. Cependant, ils ont également annoncé des fonctionnalités très intéressantes permettant aux développeurs de créer plus facilement des applications d'IA d'assistance qui atteignent des objectifs et interagissent avec vos données et vos outils.
Tout cela est très excitant, et OpenAI semblait être au sommet du monde. Puis, dans une tournure des événements très inattendue et quelque peu confuse, OpenAI a annoncé qu'elle avait évincé son PDG Sam Altman et qu'il ne reprendrait pas ses fonctions. Peu de temps après, Microsoft, qui détenait une grande partie d'OpenAI, a annoncé avoir embauché Sam Altman pour diriger une division de recherche sur l'IA au sein de Microsoft.
Il semble que le conseil d'administration d'OpenAI n'était pas à l'aise avec la transparence de l'ancien PDG ou sa capacité à superviser l'entreprise en pleine croissance. Il semblait y avoir des désaccords quant à la prudence à prendre lors du développement des dernières technologies d'IA. Comme le dit le New York Times, cela semble représenter un « clivage au sein de la communauté de l'IA entre les personnes qui pensent que l'IA est la nouvelle technologie la plus importante depuis les navigateurs Web et d'autres qui craignent qu'il ne soit dangereux d'aller trop vite pour la développer ».
Alors que nous réfléchissons à ces développements, je voudrais souligner quelques points pertinents à notre contexte. Contrairement à ceux qui vivent dans l'incertitude dans l'industrie, nous pouvons espérer en sachant que Dieu n'est pas surpris par l'IA et qu'il n'y a aucune chance que les technologies de l'IA perturbent les desseins de Dieu dans le monde et sa mission d'apporter l'évangile à toutes les nations. En outre, nous devons prier pour les membres de nos gouvernements et les principaux géants de la technologie qui sont aux prises avec la réglementation de l'IA et les garanties appropriées. Ces entités nous fournissent l'avantage commun de bonnes pratiques telles que le red teaming et le watermarking. Enfin, soyons à l'avant-garde du développement et de la démonstration de pratiques d'IA fiables alors que nous accélérons la réalisation des objectifs d'accès universel. Nous pouvons appliquer intentionnellement cette technologie et faire preuve de sagesse pour mettre en œuvre les conseils de ceux qui réfléchissent profondément aux meilleures pratiques. De cette façon, nous pouvons à la fois accélérer nos efforts et faire preuve de sagesse divine à ceux qui, dans l'industrie, se posent des questions difficiles.
Si vous souhaitez en savoir plus sur ces développements, consultez les liens dans les notes de l'émission. Merci de votre écoute, et à bientôt pour un autre épisode de Tech and Testament
官话
声音的
成绩单
欢迎收看圣经翻译技术播客的另一集,名为《科技与遗嘱》。该播客由Every Tribe Every Nation创新实验室主持,由我、Predicting Guard创始人兼首席执行官丹尼尔·惠特纳克策划。《科技与遗嘱》的每一集都将提供有关人工智能和语言技术进步的最新信息。我们还将反思这项技术可能如何影响圣经翻译或与之交叉。
提醒一下,你可以在我们的子栈页面上找到该节目的法语、西班牙语、印地语、普通话和阿拉伯语的翻译。让我们练习一些社区检查。如果您在这些翻译中发现错误,请告诉我们,这样我们就可以提高翻译质量。
现在... 来看看来自人工智能世界的最新消息!已经过去一个月了,所以有很多内容要介绍。
首先,我们看到美国总统拜登发布了有关人工智能的行政命令。尽管行政命令中的内容可能会被国会推翻,但该行政命令确实具有法律效力。这使该命令与美国过去的人工智能指南区别开来,这意味着人工智能现在受到联邦一级的正式监管。随着最近的《人工智能法》和《布莱奇利宣言》,欧洲也在采取类似的监管举措。
那么,从这些监管人工智能的努力中可以学到什么,它会如何影响我们在圣经翻译中应用先进技术的努力呢?
好吧,首先,我认为我们可以从行政命令中得出一些有关人工智能安全和测试的暗示。该命令要求大型人工智能系统(例如OpenAI或Google)的开发人员在发布这些模型或系统之前与美国政府共享安全测试的结果。这些安全测试需要包括所谓的 “红队”,即假装成人工智能系统的对手或滥用者并报告系统在这种条件下的行为。例如,红队可能会积极尝试提示人工智能系统输出攻击性或危险内容。
对于应用人工智能的圣经翻译团队来说,我认为我们的安全和质量标准至少应该与商业组织一样高。那些为翻译人员或顾问创建人工智能驱动的助手的人除了预期的 “幸福之路” 之外,还应考虑系统的各种输入和用途。如果我们在系统中输入意想不到的输入,例如独特的脚本、尝试检索系统或位置信息的提示、试图使系统以有害或令人反感的方式做出响应的提示、试图混淆质量检查的圣经经文段落的更改,或者包括可能泄露给系统输出的个人识别信息的输入,会怎样?关于人工智能驱动的功能是如何受到干扰或行为不当的,我们会发现什么?我们是否应该期望组织将此类红队结果作为向内部或外部利益相关者提供的服务的一部分?
接下来,圣经翻译者可能需要考虑行政命令中提出的与给人工智能输出加水印有关的想法。“给人工智能输出加水印” 是一种故意用某种透明的数据转换来标记人工智能输出的做法,这样就可以将人工智能输出与人类输出区分开来。
那些开发人工智能系统以创建起草建议、反向或正向翻译的初稿、问题答案、翻译资源草稿等的人可以考虑在这些输出上添加水印。这将帮助从事质量保证工作的人员知道人工翻译人员编辑和审阅了哪些内容,以及计算机的原始输出可能是什么。这样的建议并不意味着需要修改计算机的所有输出,因为希望许多输出都相当不错。但是,在通过质量检查流程通过原始计算机输出之前,进行健全性检查可能是不错的,而区分原始计算机输出和人工生成的输出将有利于对翻译或资源的回顾性审查和批评。
拜登的行政命令还讨论了许多其他问题,如果你有时间,我建议你至少看看白宫发布的情况说明书。这在Substack上本集的节目说明中都有链接。
现在,在其他新闻中,OpenAI似乎继续在人工智能新闻周期中占据主导地位。他们最近举行了 DevDay,其中包括许多激动人心的公告。正如本播客的前一集所述,OpenAI 的最新工具包括独特的多模式功能,可以处理和输出文本、图像和语音。这个主题在他们的 DevDay 期间仍在继续。但是,他们还宣布了非常有趣的功能,使开发人员能够更轻松地创建辅助人工智能应用程序,以实现目标并与您的数据和工具进行交互。
这一切都非常令人兴奋,OpenAI 似乎站在了世界之巅。然后,在一个非常出乎意料且有些令人困惑的事件中,OpenAI宣布他们已经罢免了首席执行官山姆·奥特曼,他不会重返工作岗位。不久之后,拥有OpenAI很大一部分股份的微软宣布他们已聘请山姆·奥特曼在微软内部管理人工智能研究部门。
OpenAI的董事会似乎对这位前首席执行官的透明度或他监督这家成长型公司的能力不满意。在开发最新的人工智能技术时应谨慎程度方面,似乎存在分歧。正如《纽约时报》所说,这似乎代表了 “人工智能社区中的分歧,一部分人认为人工智能是自网络浏览器以来最重要的新技术,另一类人则担心发展得太快而无法开发人工智能可能很危险。”
在我们反思这些事态发展时,我想强调一些与我们的背景有关的事情。与那些在行业中存在不确定性的人相比,我们可以抱有希望,因为我们知道人工智能不会让上帝感到惊讶,而且人工智能技术不可能破坏上帝在世界上的目标和他将福音带给所有国家的使命。此外,我们应该为政府成员和领先的科技巨头祈祷,他们正在努力应对人工智能法规和适当的保障措施。这些实体为我们提供了红队和水印等最佳实践的共同优点。最后,在我们加速实现所有访问目标的过程中,让我们站在开发和展示值得信赖的人工智能实践的最前沿。我们可以有意地应用这项技术,运用智慧来实施那些深入思考最佳实践的人的指导。通过这种方式,我们既可以加快努力,又可以向那些提出棘手问题的业内人士展示神的智慧。
如果您想进一步了解这些进展,请查看展会说明中的链接。感谢收听,稍后再看《科技与遗嘱》一集
عربي
صوتي
نص
हिन्दी
ऑडियो
प्रतिलिपि
बाइबल अनुवाद प्रौद्योगिकी पॉडकास्ट के एक और एपिसोड में आपका स्वागत है, जिसे टेक एंड टेस्टामेंट कहा जाता है। यह पॉडकास्ट एवरी ट्राइब एवरी नेशन इनोवेशन लैब द्वारा प्रस्तुत किया गया है और इसे मेरे द्वारा क्यूरेट किया गया है, प्रिडिक्शन गार्ड के संस्थापक और सीईओ डैनियल व्हिटनैक। टेक एंड टेस्टामेंट का प्रत्येक एपिसोड आर्टिफिशियल इंटेलिजेंस और भाषा प्रौद्योगिकी में प्रगति के बारे में अपडेट प्रदान करेगा। हम इस बात पर भी विचार करेंगे कि यह तकनीक बाइबल अनुवाद को कैसे प्रभावित कर सकती है या इससे कैसे जुड़ सकती है।
एक अनुस्मारक के रूप में आप हमारे सबस्टैक पेज पर शो के फ्रेंच, स्पेनिश, हिंदी, मंदारिन और अरबी में अनुवाद पा सकते हैं। और आइए कुछ सामुदायिक जाँच का अभ्यास करें। अगर आपको इन अनुवादों में त्रुटियाँ मिलती हैं, तो कृपया हमें बताएं, ताकि हम अनुवाद की गुणवत्ता में सुधार कर सकें।
अब... AI की दुनिया की ताजा खबरों के लिए! काफी महीना हो गया है, इसलिए इसमें कवर करने के लिए बहुत कुछ है।
सबसे पहले, हमने देखा कि अमेरिकी राष्ट्रपति बिडेन ने AI पर एक कार्यकारी आदेश जारी किया। हालांकि कार्यकारी आदेश में चीजों को कांग्रेस द्वारा पलट दिया जा सकता है, लेकिन कार्यकारी आदेश में कानून का बल है। यह आदेश को AI पर पिछले अमेरिकी मार्गदर्शन से अलग करता है, और इसका मतलब है कि AI अब आधिकारिक तौर पर संघीय स्तर पर विनियमित है। हाल ही में AI अधिनियम और बैलेचली घोषणा के साथ यूरोप में विनियमन के लिए इसी तरह के कदम उठाए जा रहे हैं।
तो AI को विनियमित करने के इन प्रयासों से क्या सीखा जा सकता है, और यह बाइबल अनुवाद के भीतर उन्नत तकनीकों को लागू करने के हमारे प्रयासों को कैसे प्रभावित कर सकता है?
खैर, सबसे पहले, मुझे लगता है कि हम AI सुरक्षा और परीक्षण के संबंध में कार्यकारी आदेश से कुछ संकेत ले सकते हैं। आदेश के लिए बड़े AI सिस्टम (जैसे OpenAI या Google) के डेवलपर्स को इन मॉडलों या प्रणालियों के जारी होने से पहले अमेरिकी सरकार के साथ सुरक्षा परीक्षणों के परिणामों को साझा करने की आवश्यकता होती है। इन सुरक्षा परीक्षणों में वह शामिल होना आवश्यक है जिसे “रेड-टीमिंग” कहा जाता है, जो कि AI सिस्टम का विरोधी या दुर्व्यवहार करने वाला होने का नाटक करने और यह रिपोर्ट करने की प्रथा है कि सिस्टम ऐसी परिस्थितियों में कैसे व्यवहार करता है। उदाहरण के लिए, एक लाल टीम सक्रिय रूप से किसी AI सिस्टम को आक्रामक या खतरनाक सामग्री आउटपुट करने के लिए प्रेरित करने का प्रयास कर सकती है।
AI को लागू करने वाली बाइबल अनुवाद टीमों के लिए, मुझे लगता है कि हमारे पास व्यावसायिक संगठनों की तरह कम से कम सुरक्षा और गुणवत्ता का उच्च स्तर होना चाहिए। जो लोग अनुवादकों या सलाहकारों के लिए एआई-संचालित सहायक बना रहे हैं, उन्हें अपेक्षित “सुखद पथ” से परे अपने सिस्टम के इनपुट और उपयोगों की एक विस्तृत श्रृंखला पर विचार करना चाहिए। क्या होगा अगर हम अपने सिस्टम में अनपेक्षित इनपुट डालते हैं जैसे अद्वितीय स्क्रिप्ट, संकेत देते हैं जो सिस्टम या स्थान की जानकारी को पुनः प्राप्त करने का प्रयास करते हैं, सिस्टम को विषाक्त या आक्रामक तरीके से प्रतिक्रिया देने का प्रयास करते हैं, बाइबल टेक्स्ट पैसेज में बदलाव करते हैं जो गुणवत्ता जांच को भ्रमित करने की कोशिश करते हैं, या ऐसे इनपुट जिनमें व्यक्तिगत रूप से पहचान करने वाली जानकारी शामिल हो जो सिस्टम आउटपुट में लीक हो सकती है? हम इस बारे में क्या पाएंगे कि हमारी एआई-संचालित कार्यक्षमताएं कैसे खराब या दुर्व्यवहार करती हैं? क्या हमें उम्मीद करनी चाहिए कि संगठन इस तरह के रेड-टीमिंग परिणाम प्रदान करें, जो वे आंतरिक या बाहरी हितधारकों को वितरित करते हैं?
इसके बाद, हो सकता है कि बाइबल अनुवादक AI आउटपुट को वॉटरमार्क करने से संबंधित कार्यकारी आदेश में प्रस्तुत विचारों पर विचार करना चाहें। AI आउटपुट को “वॉटरमार्किंग” किसी प्रकार के पारदर्शी डेटा परिवर्तन के साथ जानबूझकर AI आउटपुट को चिह्नित करने की प्रथा है, जैसे कि AI आउटपुट को मानव आउटपुट से अलग किया जा सकता है।
ड्राफ्टिंग के लिए सुझाव देने के लिए AI सिस्टम विकसित करने वाले, बैक या फॉरवर्ड ट्रांसलेशन के पहले ड्राफ्ट, सवालों के जवाब, ट्रांसलेटर संसाधनों के ड्राफ्ट, और बहुत कुछ इन आउटपुट पर वॉटरमार्क शामिल करने पर विचार कर सकते हैं। इससे क्वालिटी एश्योरेंस में काम करने वालों को यह जानने में मदद मिलेगी कि मानव अनुवादकों द्वारा क्या-क्या संपादित और समीक्षा की गई है और कंप्यूटर का कच्चा आउटपुट क्या हो सकता है। इस तरह के सुझाव का मतलब यह नहीं है कि कंप्यूटर से सभी आउटपुट को संशोधित करने की आवश्यकता है, क्योंकि उम्मीद है कि कई आउटपुट काफी अच्छे होंगे। हालांकि, गुणवत्ता जांच प्रक्रियाओं के माध्यम से कच्चे कंप्यूटर आउटपुट को पास करने से पहले विवेक की जांच अच्छी हो सकती है, और अनुवादों या संसाधनों की पूर्वव्यापी समीक्षा और आलोचनाओं को कच्चे कंप्यूटर आउटपुट और मानव जनित आउटपुट से भेदभाव करने से लाभ होगा।
बिडेन के कार्यकारी आदेश में कई अन्य बातों पर चर्चा की गई है, और, यदि आपके पास समय है, तो मेरा सुझाव है कि आप कम से कम व्हाइट हाउस द्वारा जारी फैक्ट शीट पर एक नज़र डालें। यह सबस्टैक पर इस एपिसोड के शो नोट्स में जुड़ा हुआ है।
अब, अन्य समाचारों में, ऐसा लगता है कि AI समाचार चक्र में OpenAI का दबदबा कायम है। उन्होंने हाल ही में अपना DevDay आयोजित किया, जिसमें कई रोमांचक घोषणाएं शामिल थीं। जैसा कि इस पॉडकास्ट के पिछले एपिसोड में बताया गया है, OpenAI की नवीनतम टूलिंग में अद्वितीय मल्टीमॉडल क्षमताएं शामिल हैं जो टेक्स्ट, इमेज और स्पीच को प्रोसेस और आउटपुट कर सकती हैं। यह थीम उनके DevDay के दौरान भी जारी रही। हालांकि, उन्होंने बहुत दिलचस्प कार्यक्षमता की भी घोषणा की, जिससे डेवलपर्स अधिक आसानी से सहायक AI ऐप बना सकते हैं जो लक्ष्यों को पूरा करते हैं और आपके डेटा और टूल के साथ इंटरैक्ट करते हैं।
यह सब बहुत रोमांचक है, और ऐसा लगता है कि OpenAI दुनिया में शीर्ष पर है। फिर, घटनाओं के एक बहुत ही अप्रत्याशित और कुछ हद तक भ्रमित करने वाले मोड़ में, OpenAI ने घोषणा की कि उन्होंने अपने सीईओ सैम ऑल्टमैन को हटा दिया है और वह नौकरी पर वापस नहीं लौटेंगे। इसके तुरंत बाद Microsoft, जिसके पास OpenAI का एक बड़ा प्रतिशत है, ने घोषणा की कि उन्होंने Microsoft के भीतर AI अनुसंधान प्रभाग चलाने के लिए सैम ऑल्टमैन को काम पर रखा है।
ऐसा लगता है कि OpenAI का बोर्ड पूर्व CEO की पारदर्शिता या बढ़ती कंपनी की देखरेख करने की उनकी क्षमता के साथ सहज नहीं था। ऐसा प्रतीत होता है कि नवीनतम AI तकनीकों को विकसित करने में कितनी सावधानी बरती जानी चाहिए, इससे संबंधित असहमतियां हैं। जैसा कि न्यूयॉर्क टाइम्स कहता है, यह “उन लोगों के बीच एआई समुदाय में दरार का प्रतिनिधित्व करता है, जो मानते हैं कि एआई सबसे महत्वपूर्ण नई तकनीक है क्योंकि वेब ब्राउज़र और अन्य जो चिंता करते हैं कि इसे विकसित करने के लिए बहुत तेज़ी से आगे बढ़ना खतरनाक हो सकता है।”
जैसा कि हम इन घटनाओं पर विचार कर रहे हैं, मैं अपने संदर्भ के लिए प्रासंगिक कुछ बातों को उजागर करना चाहता हूं। उद्योग में अनिश्चितता के साथ काम करने वालों के विपरीत, हम यह जानकर आशा कर सकते हैं कि परमेश्वर को AI द्वारा आश्चर्यचकित नहीं किया जाता है, और ऐसी कोई संभावना नहीं है कि AI तकनीकें दुनिया में परमेश्वर के उद्देश्यों और सभी राष्ट्रों के लिए सुसमाचार लाने के उनके मिशन को बाधित कर सकती हैं। इसके अलावा, हमें अपनी सरकारों और प्रमुख तकनीकी दिग्गजों के लिए प्रार्थना करनी चाहिए क्योंकि वे एआई नियमों और उचित सुरक्षा उपायों से जूझ रहे हैं। ये संस्थाएं हमें रेड-टीमिंग और वॉटरमार्किंग जैसी सर्वोत्तम पद्धतियों का सामान्य अनुग्रह प्रदान कर रही हैं। अंत में, आइए हम भरोसेमंद AI प्रथाओं को विकसित करने और प्रदर्शित करने में सबसे आगे रहें, क्योंकि हम सभी एक्सेस लक्ष्यों को पूरा करने में तेजी लाते हैं। हम जानबूझकर इस तकनीक को लागू कर सकते हैं और सर्वोत्तम प्रथाओं के बारे में गहराई से सोचने वालों के मार्गदर्शन को लागू करने के लिए ज्ञान का उपयोग कर सकते हैं। इस तरह, हम दोनों अपने प्रयासों को गति दे सकते हैं और उद्योग में मुश्किल सवाल पूछने वालों के लिए ईश्वरीय ज्ञान का प्रदर्शन कर सकते हैं।
यदि आप इन घटनाओं के बारे में और जानना चाहते हैं, तो शो नोट्स के लिंक देखें। सुनने के लिए धन्यवाद, और जल्द ही टेक एंड टेस्टामेंट के एक और एपिसोड की तलाश करें।