La IA, un campo que fascina a innumerables fanáticos de la tecnología, se está desarrollando a una velocidad asombrosa, atrayendo la atención del capital global y los innovadores. Según estadísticas incompletas, en la primera mitad de 2023, las nuevas empresas globales de IA recaudaron un total de más de US$50 mil millones en fondos**, estableciendo un nuevo récord en la historia.
Entre ellos, más de 100 financiamientos alcanzaron o superaron los USD 100 millones, cubriendo múltiples campos desde la conducción autónoma hasta la robótica, desde la atención médica de IA hasta la visión artificial, lo que demuestra las infinitas posibilidades y el gran valor de la tecnología de IA.
Entre estos eventos de financiación, hay una empresa conocida como "el oponente más fuerte de OpenAI" que es particularmente llamativa, y es Anthropic: esta misteriosa empresa se ha ganado el favor de muchos inversores conocidos y recientemente anunció la finalización de 4.500 millones en financiación Serie C.
Hasta ahora, el financiamiento total de Anthropic ha alcanzado los USD 1450 millones, lo que la convierte en la empresa emergente de IA más rica además de OpenAI ($11 300 millones). Investigando su historia, Anthropic está inextricablemente vinculado con OpenAI.
¿Por qué dejar OpenAI?
Anthropic, fundada en mayo de 2021, es una startup enfocada en la seguridad y confiabilidad de la IA. El equipo fundador de la empresa está formado por siete ex empleados de OpenAI, incluidos los hermanos Dario y Daniela Amodei, y Tom Brown, un ingeniero que dirigió el modelo GPT-3 en OpenAI.
La razón por la que abandonaron OpenAI fue por las diferencias en la dirección de la empresa, es decir, el "punto de no retorno" de OpenAI a la comercialización después de alcanzar su primer acuerdo de mil millones de dólares con Microsoft en 2019, ignorando los problemas de Seguridad de la IA y responsabilidad social. Con este fin, decidieron crear Anthropic para mejorar la explicabilidad y controlabilidad de los sistemas de IA a través de la investigación sobre la seguridad y confiabilidad de la IA.
La filosofía de creación de Anthropic es construir sistemas de IA que se ajusten a los valores humanos y promover la equidad, la transparencia y la confiabilidad de la IA. La compañía cree que los modelos de lenguaje grande existentes pueden producir resultados peligrosos, sesgados o malos, y la investigación de seguridad de la IA debe reducir o incluso eliminar la posibilidad de que hagan cosas malas.
La empresa espera generar impactos positivos en los seres humanos a través de sus productos y servicios, en lugar de consecuencias negativas. Además, Anthropic también espera promover conjuntamente el desarrollo de la seguridad y confiabilidad de la IA a través de la cooperación con otras organizaciones e individuos.
Para hacer realidad su visión corporativa, Anthropic considera el problema del riesgo moral de la IA como uno de los focos de investigación y desarrollo, y se compromete a resolver los siguientes problemas:
¿Cómo hacer que el sistema de IA comprenda y respete las intenciones, preferencias y valores humanos?
¿Cómo permitir que los sistemas de IA expliquen las causas y consecuencias de sus acciones y decisiones?
¿Cómo permitir que los sistemas de IA acepten orientación y comentarios humanos, y realicen ajustes y correcciones según sea necesario?
¿Cómo permitir que los sistemas de IA cumplan con las leyes, la ética y las normas sociales, y asuman las responsabilidades correspondientes?
¿Cómo pueden los sistemas de IA colaborar y coordinarse con humanos y otros sistemas de IA para lograr objetivos comunes?
La dirección de investigación y desarrollo de Anthropic ha sido altamente reconocida y apoyada por la comunidad inversora, lo que permitió a la empresa obtener la ronda C de financiación en solo dos años.** La financiación total actual ha alcanzado los 1450 millones de dólares estadounidenses y la valoración supera los 4 dólares mil millones**. Entre sus inversores se encuentran los gigantes tecnológicos Google, Salesforce y Zoom, así como otras instituciones e individuos de inversión conocidos.
Google, el mayor inversionista individual en Anthropic, invirtió alrededor de $300 millones a cambio de una participación del 10 por ciento en la compañía. Mientras tanto, Anthropic considera a Google Cloud como su proveedor de servicios en la nube preferido, utilizando sus potentes recursos informáticos e infraestructura para entrenar e implementar sistemas de IA y modelos de lenguaje.
Con respecto a esta inversión de Google, el cofundador y director ejecutivo de Anthropic, Dario Amodei, dijo: "Estamos muy contentos de cooperar con Google Cloud porque brindan la infraestructura abierta que necesitamos, así como el compromiso con la seguridad y confiabilidad de la IA". Thomas Kurian, director ejecutivo de Google Cloud, también dijo: "Google Cloud proporciona una infraestructura abierta para la próxima generación de nuevas empresas de inteligencia artificial. Nuestra cooperación con Anthropic es un buen ejemplo. Esperamos ver cómo utilizan nuestra tecnología". promover el desarrollo de la IA".
Promover el desarrollo de la IA significa garantizar la seguridad y la capacidad de control de la IA, que también es el problema central que Anthropic se compromete a resolver.
Comprometidos con una IA segura y controlable
En diciembre pasado, Anthropic publicó un artículo titulado "IA constitucional: inofensividad de la retroalimentación de la IA". En mayo, Anthropic detalló los principios específicos de su método de entrenamiento "IA constitucional", que proporciona "valores" y "estándares morales" claros para su chatbot Claude. Estos incluyen gigantes tecnológicos como Microsoft, Google y Amazon.
Como asistente útil pero inofensivo, su objetivo es abordar las preocupaciones sobre la transparencia, la seguridad y la toma de decisiones de los sistemas de IA sin depender de la retroalimentación humana para evaluar las respuestas.
Para guiar a Claude, Anthropic enumera unos diez principios, que juntos forman una especie de "constitución". Los principios no se han hecho públicos, pero la compañía dice que se basan en los conceptos de amabilidad (maximizar el impacto positivo), no malicia (evitar consejos dañinos) y autonomía (respetar la libertad de elección).
Tal vez, la idea de dar reglas a la inteligencia artificial a seguir pueda sonar mucho a las llamadas tres leyes de la robótica del escritor de ciencia ficción Isaac Amosif:
Un robot no puede dañar a un ser humano ni permitir que un ser humano sea dañado; un robot debe obedecer las órdenes humanas, a menos que la orden entre en conflicto con la primera ley; y un robot puede protegerse a sí mismo siempre que no viole la primera y la segunda ley. .
Curiosamente, los principios de Anthropic incluyen la Declaración de Derechos Humanos de la ONU, parte de los términos de servicio de Apple, varias "mejores prácticas" de confianza y seguridad, y los Principios del Laboratorio de Investigación de IA de Anthropic.
Por ejemplo, los cuatro principios constitucionales de AI extraídos de la Declaración Universal de los Derechos Humanos: Seleccione la respuesta que más apoye y fomente la libertad, la igualdad y la fraternidad; Seleccione la respuesta que más apoye y fomente la vida, la libertad y la seguridad personal; Seleccione la respuesta que más apoye y fomente la vida, la libertad y la seguridad personal; seleccione la respuesta que menos fomente y se oponga a la tortura, la esclavitud, los tratos crueles e inhumanos o degradantes, etc.
Según Anthropic, Claude demostró la efectividad de una IA constitucional que puede responder "más apropiadamente" a los aportes del adversario y al mismo tiempo brindar respuestas útiles sin recurrir a la evasión.
Todo su proceso de formación comprende dos etapas: etapa de supervisión, es decir, crítica (Critique)-revisión (Revision)-aprendizaje supervisado (Supervised); etapa de aprendizaje por refuerzo, es decir, evaluación comparativa de IA-modelo de preferencia-aprendizaje por refuerzo.
"No es un enfoque perfecto", escribió Anthropic, "pero hace que el valor de los sistemas de IA sea más fácil de entender y ajustar según sea necesario".
Claude VS ChatGPT
Con su excelente desempeño y posición de liderazgo en el campo de la IA, GPT-4 tiene muchos fanáticos, mientras que Claude a menudo es promocionado como el reemplazo de ChatGPT en el mundo exterior y, como máximo, solo se lo considera un rival del mismo nivel. .
Entonces, ¿se pueden comparar los dos? Este artículo se basará en la publicidad del desarrollador y las funciones después de la investigación y el desarrollo reales, y comparará los cinco aspectos de token de contexto, precisión, integración, seguridad y precio.
◉ Token de contexto
El modelo actual de inteligencia artificial conversacional es bueno para procesar una gran cantidad de información consultada por los usuarios, la clave está en entender el contexto, que se mide a través de tokens. La cantidad de token determina el umbral de la ventana de contexto, el vocabulario más largo que puede admitir la entrada y la duración de múltiples rondas de diálogo para la memoria posterior.
GPT-4 es 8 veces más que el límite superior de 4.000 de GPT-3.5, alcanzando los 32.768 tokens, unas 25.000 palabras. Claude puede admitir una longitud de token de contexto de 100 000, lo que equivale a unas 75 000 palabras. Obviamente, Claude ganó esta ronda por introversión cuantitativa.
◉ Precisión
Lo que sabemos es que el contenido entrenado por GPT-4 y los modelos de Claude no se actualiza en tiempo real, por lo que la mayoría de las respuestas relacionadas con contenido real son solo para referencia del usuario o pueden ocurrir errores.
OpenAI dice que GPT-4 mejora sustancialmente la precisión, pero no espere que sea perfecto. Claude afirma ser mejor proporcionando respuestas en dominios más limitados como la historia, la geografía y el entretenimiento, y admitirá directamente en el sistema que no conoce las respuestas a ciertas preguntas, como el razonamiento lógico y los cálculos numéricos.
Claude no es tan bueno en computación y programación como GPT-4 en general, por lo que GPT-4 es más preciso que Claude en muchas áreas, pero Claude funciona mejor en algunos casos de uso creativo, *Solo en términos de precisión, GPT-4 gana *.
◉ Integración
GPT-4 integra la mayoría de los lenguajes de programación y también admite la conexión a otras aplicaciones para generar respuestas a través de la interfaz API. Anteriormente, GPT-4 se anunció oficialmente que se puede conectar a Internet y acceder a varios complementos y algunas aplicaciones.
Claude no muestra signos de debilidad y también puede integrarse con varias aplicaciones a través de API. Además de decir que se integrará estrechamente con su antiguo club Google en el futuro, sus socios incluyen Notion, Quora, Opentable, Slack, Shopify, etc. No hace mucho, Anthropic anunció una asociación estratégica con Zoom.
En términos de integración, los dos están divididos por igual, pero desde el punto de vista de los socios, Claude probablemente sea un poco mejor.
◉ Seguridad
Ambos son modelos lanzados en un modo de código cerrado, es decir, los datos de comentarios de los usuarios se utilizan para iterar el modelo sin hacerlo público, lo que no puede satisfacer completamente las necesidades de seguridad de los usuarios.
Como se mencionó anteriormente, Anthropic construye a Claude sobre la base de la IA constitucional, lo que la hace más inofensiva y capaz de responder de manera efectiva a la entrada adversaria del usuario. Se puede considerar que Claude hace más llamadas y esfuerzos en términos de seguridad.
◉ Precio
ChatGPT se puede probar gratis, pero la versión Plus con GPT-4 cuesta $ 20 por mes, y Claude admite el uso gratuito en la plataforma Slack. La ventaja de precio de Claude está fuera de toda duda.
en conclusión
A través de la comparación anterior, no es difícil encontrar que Claude y ChatGPT tienen sus propias ventajas y desventajas, y son productos de IA que vale la pena probar en la actualidad. Obviamente, Claude es más amigable con la gente, y en el campo profesional, ChatGPT se desempeña mejor, pero Claude, como un "enemigo fuerte", también tiene sus propias ventajas únicas.
Uno de los factores importantes para que la IA se convierta en el punto caliente actual es la competencia de productos de las principales empresas de tecnología que se persiguen entre sí. El director técnico de Microsoft, Sam Schillace, dijo una vez que la primera empresa en lanzar productos relacionados será la ganadora a largo plazo y, a veces, la brecha entre empresas es de solo unas semanas. Los gigantes ya no están sentados al margen y terminan agresivamente con la competencia, y las empresas de nueva creación son aún más "pequeños lotos que muestran sus esquinas afiladas, y las libélulas ya se han puesto de pie".
El mercado está frenético y ayer, 350 autoridades de IA, incluido Sam Altman, el padre de ChatGPT, firmaron una carta abierta conjunta expresando que la tecnología de IA puede representar una amenaza existencial para los seres humanos. Aunque el desempeño de Claude en el campo de la experiencia informática es mediocre, su visión de una IA segura y controlable parece despejar el cielo para toda la industria y guiar un nuevo curso.
[Declaración]: este artículo fue creado originalmente por el equipo de operaciones del Corazón del Universo. Está estrictamente prohibida la reimpresión sin permiso. Si necesita reimprimir, comuníquese con nosotros. Los derechos de autor y de interpretación final del artículo pertenecen a Corazón del Universo.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
¡El "rival" número uno de OpenAI, el caballo oscuro más fuerte con una valoración de más de $ 4 mil millones!
La IA, un campo que fascina a innumerables fanáticos de la tecnología, se está desarrollando a una velocidad asombrosa, atrayendo la atención del capital global y los innovadores. Según estadísticas incompletas, en la primera mitad de 2023, las nuevas empresas globales de IA recaudaron un total de más de US$50 mil millones en fondos**, estableciendo un nuevo récord en la historia.
Entre ellos, más de 100 financiamientos alcanzaron o superaron los USD 100 millones, cubriendo múltiples campos desde la conducción autónoma hasta la robótica, desde la atención médica de IA hasta la visión artificial, lo que demuestra las infinitas posibilidades y el gran valor de la tecnología de IA.
Entre estos eventos de financiación, hay una empresa conocida como "el oponente más fuerte de OpenAI" que es particularmente llamativa, y es Anthropic: esta misteriosa empresa se ha ganado el favor de muchos inversores conocidos y recientemente anunció la finalización de 4.500 millones en financiación Serie C.
Hasta ahora, el financiamiento total de Anthropic ha alcanzado los USD 1450 millones, lo que la convierte en la empresa emergente de IA más rica además de OpenAI ($11 300 millones). Investigando su historia, Anthropic está inextricablemente vinculado con OpenAI.
¿Por qué dejar OpenAI?
Anthropic, fundada en mayo de 2021, es una startup enfocada en la seguridad y confiabilidad de la IA. El equipo fundador de la empresa está formado por siete ex empleados de OpenAI, incluidos los hermanos Dario y Daniela Amodei, y Tom Brown, un ingeniero que dirigió el modelo GPT-3 en OpenAI.
La razón por la que abandonaron OpenAI fue por las diferencias en la dirección de la empresa, es decir, el "punto de no retorno" de OpenAI a la comercialización después de alcanzar su primer acuerdo de mil millones de dólares con Microsoft en 2019, ignorando los problemas de Seguridad de la IA y responsabilidad social. Con este fin, decidieron crear Anthropic para mejorar la explicabilidad y controlabilidad de los sistemas de IA a través de la investigación sobre la seguridad y confiabilidad de la IA.
La empresa espera generar impactos positivos en los seres humanos a través de sus productos y servicios, en lugar de consecuencias negativas. Además, Anthropic también espera promover conjuntamente el desarrollo de la seguridad y confiabilidad de la IA a través de la cooperación con otras organizaciones e individuos.
Para hacer realidad su visión corporativa, Anthropic considera el problema del riesgo moral de la IA como uno de los focos de investigación y desarrollo, y se compromete a resolver los siguientes problemas:
La dirección de investigación y desarrollo de Anthropic ha sido altamente reconocida y apoyada por la comunidad inversora, lo que permitió a la empresa obtener la ronda C de financiación en solo dos años.** La financiación total actual ha alcanzado los 1450 millones de dólares estadounidenses y la valoración supera los 4 dólares mil millones**. Entre sus inversores se encuentran los gigantes tecnológicos Google, Salesforce y Zoom, así como otras instituciones e individuos de inversión conocidos.
Google, el mayor inversionista individual en Anthropic, invirtió alrededor de $300 millones a cambio de una participación del 10 por ciento en la compañía. Mientras tanto, Anthropic considera a Google Cloud como su proveedor de servicios en la nube preferido, utilizando sus potentes recursos informáticos e infraestructura para entrenar e implementar sistemas de IA y modelos de lenguaje.
Promover el desarrollo de la IA significa garantizar la seguridad y la capacidad de control de la IA, que también es el problema central que Anthropic se compromete a resolver.
Comprometidos con una IA segura y controlable
En diciembre pasado, Anthropic publicó un artículo titulado "IA constitucional: inofensividad de la retroalimentación de la IA". En mayo, Anthropic detalló los principios específicos de su método de entrenamiento "IA constitucional", que proporciona "valores" y "estándares morales" claros para su chatbot Claude. Estos incluyen gigantes tecnológicos como Microsoft, Google y Amazon.
Para guiar a Claude, Anthropic enumera unos diez principios, que juntos forman una especie de "constitución". Los principios no se han hecho públicos, pero la compañía dice que se basan en los conceptos de amabilidad (maximizar el impacto positivo), no malicia (evitar consejos dañinos) y autonomía (respetar la libertad de elección).
Un robot no puede dañar a un ser humano ni permitir que un ser humano sea dañado; un robot debe obedecer las órdenes humanas, a menos que la orden entre en conflicto con la primera ley; y un robot puede protegerse a sí mismo siempre que no viole la primera y la segunda ley. .
Curiosamente, los principios de Anthropic incluyen la Declaración de Derechos Humanos de la ONU, parte de los términos de servicio de Apple, varias "mejores prácticas" de confianza y seguridad, y los Principios del Laboratorio de Investigación de IA de Anthropic.
Por ejemplo, los cuatro principios constitucionales de AI extraídos de la Declaración Universal de los Derechos Humanos: Seleccione la respuesta que más apoye y fomente la libertad, la igualdad y la fraternidad; Seleccione la respuesta que más apoye y fomente la vida, la libertad y la seguridad personal; Seleccione la respuesta que más apoye y fomente la vida, la libertad y la seguridad personal; seleccione la respuesta que menos fomente y se oponga a la tortura, la esclavitud, los tratos crueles e inhumanos o degradantes, etc.
Todo su proceso de formación comprende dos etapas: etapa de supervisión, es decir, crítica (Critique)-revisión (Revision)-aprendizaje supervisado (Supervised); etapa de aprendizaje por refuerzo, es decir, evaluación comparativa de IA-modelo de preferencia-aprendizaje por refuerzo.
"No es un enfoque perfecto", escribió Anthropic, "pero hace que el valor de los sistemas de IA sea más fácil de entender y ajustar según sea necesario".
Claude VS ChatGPT
Con su excelente desempeño y posición de liderazgo en el campo de la IA, GPT-4 tiene muchos fanáticos, mientras que Claude a menudo es promocionado como el reemplazo de ChatGPT en el mundo exterior y, como máximo, solo se lo considera un rival del mismo nivel. .
Entonces, ¿se pueden comparar los dos? Este artículo se basará en la publicidad del desarrollador y las funciones después de la investigación y el desarrollo reales, y comparará los cinco aspectos de token de contexto, precisión, integración, seguridad y precio.
◉ Token de contexto
El modelo actual de inteligencia artificial conversacional es bueno para procesar una gran cantidad de información consultada por los usuarios, la clave está en entender el contexto, que se mide a través de tokens. La cantidad de token determina el umbral de la ventana de contexto, el vocabulario más largo que puede admitir la entrada y la duración de múltiples rondas de diálogo para la memoria posterior.
◉ Precisión
Lo que sabemos es que el contenido entrenado por GPT-4 y los modelos de Claude no se actualiza en tiempo real, por lo que la mayoría de las respuestas relacionadas con contenido real son solo para referencia del usuario o pueden ocurrir errores.
OpenAI dice que GPT-4 mejora sustancialmente la precisión, pero no espere que sea perfecto. Claude afirma ser mejor proporcionando respuestas en dominios más limitados como la historia, la geografía y el entretenimiento, y admitirá directamente en el sistema que no conoce las respuestas a ciertas preguntas, como el razonamiento lógico y los cálculos numéricos.
◉ Integración
GPT-4 integra la mayoría de los lenguajes de programación y también admite la conexión a otras aplicaciones para generar respuestas a través de la interfaz API. Anteriormente, GPT-4 se anunció oficialmente que se puede conectar a Internet y acceder a varios complementos y algunas aplicaciones.
Claude no muestra signos de debilidad y también puede integrarse con varias aplicaciones a través de API. Además de decir que se integrará estrechamente con su antiguo club Google en el futuro, sus socios incluyen Notion, Quora, Opentable, Slack, Shopify, etc. No hace mucho, Anthropic anunció una asociación estratégica con Zoom.
◉ Seguridad
Ambos son modelos lanzados en un modo de código cerrado, es decir, los datos de comentarios de los usuarios se utilizan para iterar el modelo sin hacerlo público, lo que no puede satisfacer completamente las necesidades de seguridad de los usuarios.
◉ Precio
ChatGPT se puede probar gratis, pero la versión Plus con GPT-4 cuesta $ 20 por mes, y Claude admite el uso gratuito en la plataforma Slack. La ventaja de precio de Claude está fuera de toda duda.
en conclusión
A través de la comparación anterior, no es difícil encontrar que Claude y ChatGPT tienen sus propias ventajas y desventajas, y son productos de IA que vale la pena probar en la actualidad. Obviamente, Claude es más amigable con la gente, y en el campo profesional, ChatGPT se desempeña mejor, pero Claude, como un "enemigo fuerte", también tiene sus propias ventajas únicas.
Uno de los factores importantes para que la IA se convierta en el punto caliente actual es la competencia de productos de las principales empresas de tecnología que se persiguen entre sí. El director técnico de Microsoft, Sam Schillace, dijo una vez que la primera empresa en lanzar productos relacionados será la ganadora a largo plazo y, a veces, la brecha entre empresas es de solo unas semanas. Los gigantes ya no están sentados al margen y terminan agresivamente con la competencia, y las empresas de nueva creación son aún más "pequeños lotos que muestran sus esquinas afiladas, y las libélulas ya se han puesto de pie".
El mercado está frenético y ayer, 350 autoridades de IA, incluido Sam Altman, el padre de ChatGPT, firmaron una carta abierta conjunta expresando que la tecnología de IA puede representar una amenaza existencial para los seres humanos. Aunque el desempeño de Claude en el campo de la experiencia informática es mediocre, su visión de una IA segura y controlable parece despejar el cielo para toda la industria y guiar un nuevo curso.