Par Jean-Pierre Boushira, Vice-Président Europe du Sud et Benelux chez Veritas Technologies
Si l’intelligence artificielle prend de plus en plus d’importance dans nos processus décisionnels, un monde totalement dirigé par cette technologie n’est pas près de voir le jour. En effet, il faut avant tout garder à l’esprit que même si nous développons une intelligence artificielle standardisée avec les mêmes capacités créatives et intellectuelles que le cerveau humain, les décisions les plus importantes (comme la gouvernance des États par exemple) resteront prises par les hommes.
L'Intelligence Artificielle progresse rapidement, à tel point qu'elle n'est plus seulement un outil mais à la fois un juge et un gardien : ses algorithmes diagnostiquent les patients, décident qui est admissible ou non à la sécurité sociale, sélectionnent des candidats à des entretiens d'embauche... Comme l'IA prend de plus en plus de place dans notre processus décisionnel, nous devrions connaître une plus grande rapidité et efficacité dans le traitement de l’information qui pourrait libérer 30% du temps des effectifs du gouvernement au cours des prochaines années. Toutefois, pour obtenir les meilleurs résultats possibles, nous devons nous efforcer de développer une IA qui partage équitablement ces avantages.
Nous influençons les nouvelles technologies autant qu'elles nous influencent. Malheureusement, cela signifie qu'il y a un risque que l'IA adopte certains de nos pires défauts. Et si nous ne prenons pas les mesures nécessaires dès maintenant, les préjugés dits « inconscients » pourraient être perpétués ou même s’ancrer plus profondément dans notre société.
Les données en disent long sur une personne, mais elles ne vous diront pas tout. La dernière chose que nous voulons, c'est un monde où vous serez jugé non pas en fonction de vos capacités ou de votre potentiel, mais en fonction des données que vous laissez. Il est clair que pour que l'intelligence artificielle soit utilisée de manière bénéfique, elle doit être optimisée en termes d'équité.
Les préjugés inconscients sont un problème pour la donnée
L'expression « si les entrées d’un système sont mauvaises, les sorties le sont forcément aussi » (Garbage in, Garbage out – GIGO - en anglais) est devenue célèbre dans le développement logiciel, et ce pour de bonnes raisons. Aussi complexe et puissante qu'elle soit devenue, l'intelligence artificielle se résume à une série d'algorithmes conçus pour exécuter une tâche spécifique. L'IA dépend entièrement des données qui lui sont fournies pour son développement. Elle ne peut donc qu'analyser les données dont elle dispose et tenter d'en tirer le meilleur parti. Ce qui nous semble être un mauvais choix est en réalité la décision optimale prise à partir d'un mauvais ensemble de données. Et cela n'enlève rien à la gravité et la problématique de la situation.
Des cas notables comme celui du chatbot Tay de Microsoft ou l'assistant virtuel Alice de Yandex sont de bonnes démonstrations de ce qui peut arriver quand des solutions d'auto-apprentissage sont alimentées avec de mauvaises données. Dans les deux cas, on s'attendait à ce que l'interaction humaine l’aide à développer une personnalité humaine convaincante. Malheureusement, le contact avec une série d’interactions agressives a créé des systèmes qui avaient appris à l’être eux-mêmes.
Cependant, lorsque les décisions prises par l'IA commencent à avoir un impact sur les moyens de subsistance des personnes, les conséquences peuvent être beaucoup plus graves. Dans un avenir où les décisions seront fondées sur les données, nous devons veiller à ce que les minorités de l'ensemble des données ne soient pas privées de leurs droits.
Prenons l'exemple d'un algorithme de reconnaissance faciale qui avait été formé uniquement avec des images de modèles à la peau claire. Lorsque l'algorithme d'IA rencontre un utilisateur à la peau noire, il peut mal l'identifier ou même ne pas le reconnaitre du tout. Imaginez alors quel serait l'impact si cette technologie de reconnaissance faciale de l'IA devenait le fondement des systèmes d'embauche ou de rémunération ? De cette façon, certains groupes peuvent être désavantagés, subir une mauvaise expérience utilisateur ou même se voir refuser l'accès à un service. La discrimination n'est peut-être pas délibérée, mais l'impact est, lui, tout aussi dommageable.
Les préjugés inconscients de l'IA sont fondamentalement liés à un problème de données. Sans une vaste base de données diversifiées et complètes, il existe un risque réel que l'IA de de demain crée automatiquement les gagnants et les perdants de la société sans prendre en compte le contexte dans son ensemble. Il est donc crucial que les entreprises et les organisations se procurent les bases de données les plus grandes et diversifiées possibles.
Bien entendu, elles devront également s'assurer que leurs solutions d'IA peuvent utiliser toutes ces données efficacement. Cela signifie des outils et des politiques de gestion des données solides, garantissant que les données sont classées, consolidées et simplifiées pour l'utilisation de l'intelligence artificielle.
La diversité des données
Collecter un maximum de données n’est pas la solution la plus simple. Ce n'est pas parce que vous disposez de plus de données qu’une entreprise moyenne, que l'ensemble des données est de meilleure qualité ou produira des résultats plus justes. Les services des Ressources Humaines du secteur de l'ingénierie par exemple, peuvent disposer d'une grande quantité de données historiques sur lesquelles s'appuyer. Mais si le secteur a toujours été dominé par les hommes, les femmes peuvent avoir plus de difficulté à apparaître comme des candidates idéales à un algorithme d'IA.
La meilleure chose à faire pour lutter contre les préjugés inconscients de l'IA est d'en être conscient. Trop d'entreprises traitent l'IA comme une boîte noire d'entrées et de sorties, mais pour garantir la justesse algorithmique, il faut bien comprendre comment la solution fonctionne et comment elle interagit avec les données. Pendant la phase de conception, ayez une idée claire des résultats que vous voulez éviter et de ceux que vous voulez atteindre. Appliquez ensuite cette justification à l'ensemble de données à partir desquelles l'IA s'entraînera, en assurant une représentation équitable pour tous les groupes sociaux, raciaux et de genre.
La façon dont une entreprise décide de ce qui est " juste " est un sujet beaucoup plus vaste et nuancé que la question des préjugés de l'IA. L'éthique variera d'une entreprise à l'autre, c'est donc aux dirigeants et à leurs employés d'élaborer un cadre éthique sur lequel ils pourront s'entendre et qui influencera ensuite leurs solutions. Cependant, la transparence est essentielle : aucune entreprise ne devrait avoir peur d'expliquer au public ou à ses employés comment ces décisions sont prises ou comment elles sont mises en œuvre.
Une approche verticale est rarement la meilleure approche. Ce qui peut sembler juste à une personne est probablement discutable ou erroné pour une autre. Une bonne façon de créer un consensus est d'établir un comité sur la diversité, composé d'intervenants de l'ensemble de votre entreprise. Les décisions de ce comité peuvent ensuite être traduites dans la solution d'IA.
Tous trop humain
Toutefois, pour utiliser l'IA de façon éthique à l'avenir, il faudra plus qu'une simple prise de conscience. Dans une certaine mesure, les entreprises des secteurs privés et publics devront changer leurs perspectives. De nombreuses entreprises sont attachées à un mélange de culture et de politique pour mener à bien une tâche spécifique, que ce soit pour créer des profits ou pour atteindre des quotas. Souvent, toutes les autres considérations deviennent secondaires ou sont complètement oubliées.
De telles organisations peuvent réussir, mais leurs solutions d'IA ont peu de chances de prendre les meilleures décisions en ce qui concerne la société dans son ensemble. Avec le temps, cette orientation restrictive pourrait creuser un fossé entre l'entreprise et ses clients. Au fur et à mesure que les abus sont commis par des solutions d'IA, ils seront révélés, et l’entreprise pourrait rapidement devenir une cible pour le législateur.
Décider de ce que vous voulez réellement réaliser avec une solution d'IA est probablement le facteur le plus important pour déterminer si ses résultats seront éthiques. Si votre objectif est uniquement de faire des profits ou d'atteindre un quota, les décisions de votre IA auront moins de chances d'être éthiques. Une entreprise qui peut utiliser l'IA atteindra probablement son objectif, mais ce dernier est-il louable ?
Une compagnie financière peut explorer comment elle peut tirer un meilleur rendement de ses prêts, de sorte qu'elle conçoive une solution d'IA qui identifie ceux qui ont le plus de chances de payer. Pourtant, si cette solution prend la décision en fonction des caractéristiques des demandeurs, elle pourrait facilement être discriminatoire envers certains groupes et leur refuser des prêts, quelle que soit leur capacité à payer.
En fin de compte, pour créer une intelligence artificielle qui prenne des décisions plus « humaines » et compatissantes, les particuliers devront commencer à se comporter moins comme des machines. Les chefs d'entreprise ne doivent pas aborder l'IA avec un seul objectif à atteindre, mais être conscients des nombreux impacts que l’IA peut avoir sur les personnes et leurs clients. La compréhension des nuances et du contexte est l'un des principaux avantages humains par rapport aux machines, il est donc important que nous l'exercions. Les données confèrent un grand pouvoir et avec ce dernier, il doit y avoir une responsabilité et un but plus large que le profit.
Bien qu'il soit difficile à admettre, les préjugés inconscients font parties de nous. Certains préjugés sont aussi bien liés à notre pensée que le code est programmé dans un logiciel. La seule façon de le vaincre c’est de reconnaître son existence et d'élaborer des stratégies qui limitent son impact sur nos décisions. Mais cela ne se fera pas du jour au lendemain : il faut le former de la même manière que nous formons l'IA pour obtenir les résultats que nous voulons.
À propos de Veritas
Veritas Technologies est un leader mondial en matière de protection et de disponibilité des données. Plus de 50 000 entreprises, dont 99% de celles issues du classement Fortune 100, nous font confiance pour simplifier la gestion des données et la complexité informatique. Notre Enterprise Data Services Platform automatise la protection et la récupération des données partout où elles se trouvent, assure la disponibilité 24h/24 et 7j/7 des applications sensibles et fournit aux entreprises les informations dont elles ont besoin pour se conformer à l'évolution des réglementations relatives aux données. Avec une réputation de fiabilité et un modèle de déploiement adapté à tous les besoins, Veritas prend en charge plus de 500 sources de données et plus de 150 types de stockage, dont 60 clouds.
veritas.com
Déclarations prévisionnelles : Toute indication prospective des plans pour les produits est préliminaire et toutes les dates de sortie futures sont provisoires et peuvent être modifiées à la seule discrétion de Veritas. Tout lancement futur du produit ou toutes modifications en matière de capacité, de fonctionnement ou des fonctionnalités du produit font l'objet d'une évaluation continue par Veritas, et peuvent ou non être mises en œuvre, ne doivent pas être considérées comme des engagements fermes de Veritas, ne doivent pas être prises en compte lors des décisions d’achat. Elles ne peuvent être incorporées dans aucun contrat
Veritas, le logo Veritas et NedBackup sont des marques commerciales ou des marques déposées de Veritas Technologies LLC ou de ses filiales aux États-Unis et dans d’autres pays. Les autres noms peuvent être les marques déposées de leurs propriétaires respectifs.
Si l’intelligence artificielle prend de plus en plus d’importance dans nos processus décisionnels, un monde totalement dirigé par cette technologie n’est pas près de voir le jour. En effet, il faut avant tout garder à l’esprit que même si nous développons une intelligence artificielle standardisée avec les mêmes capacités créatives et intellectuelles que le cerveau humain, les décisions les plus importantes (comme la gouvernance des États par exemple) resteront prises par les hommes.
L'Intelligence Artificielle progresse rapidement, à tel point qu'elle n'est plus seulement un outil mais à la fois un juge et un gardien : ses algorithmes diagnostiquent les patients, décident qui est admissible ou non à la sécurité sociale, sélectionnent des candidats à des entretiens d'embauche... Comme l'IA prend de plus en plus de place dans notre processus décisionnel, nous devrions connaître une plus grande rapidité et efficacité dans le traitement de l’information qui pourrait libérer 30% du temps des effectifs du gouvernement au cours des prochaines années. Toutefois, pour obtenir les meilleurs résultats possibles, nous devons nous efforcer de développer une IA qui partage équitablement ces avantages.
Nous influençons les nouvelles technologies autant qu'elles nous influencent. Malheureusement, cela signifie qu'il y a un risque que l'IA adopte certains de nos pires défauts. Et si nous ne prenons pas les mesures nécessaires dès maintenant, les préjugés dits « inconscients » pourraient être perpétués ou même s’ancrer plus profondément dans notre société.
Les données en disent long sur une personne, mais elles ne vous diront pas tout. La dernière chose que nous voulons, c'est un monde où vous serez jugé non pas en fonction de vos capacités ou de votre potentiel, mais en fonction des données que vous laissez. Il est clair que pour que l'intelligence artificielle soit utilisée de manière bénéfique, elle doit être optimisée en termes d'équité.
Les préjugés inconscients sont un problème pour la donnée
L'expression « si les entrées d’un système sont mauvaises, les sorties le sont forcément aussi » (Garbage in, Garbage out – GIGO - en anglais) est devenue célèbre dans le développement logiciel, et ce pour de bonnes raisons. Aussi complexe et puissante qu'elle soit devenue, l'intelligence artificielle se résume à une série d'algorithmes conçus pour exécuter une tâche spécifique. L'IA dépend entièrement des données qui lui sont fournies pour son développement. Elle ne peut donc qu'analyser les données dont elle dispose et tenter d'en tirer le meilleur parti. Ce qui nous semble être un mauvais choix est en réalité la décision optimale prise à partir d'un mauvais ensemble de données. Et cela n'enlève rien à la gravité et la problématique de la situation.
Des cas notables comme celui du chatbot Tay de Microsoft ou l'assistant virtuel Alice de Yandex sont de bonnes démonstrations de ce qui peut arriver quand des solutions d'auto-apprentissage sont alimentées avec de mauvaises données. Dans les deux cas, on s'attendait à ce que l'interaction humaine l’aide à développer une personnalité humaine convaincante. Malheureusement, le contact avec une série d’interactions agressives a créé des systèmes qui avaient appris à l’être eux-mêmes.
Cependant, lorsque les décisions prises par l'IA commencent à avoir un impact sur les moyens de subsistance des personnes, les conséquences peuvent être beaucoup plus graves. Dans un avenir où les décisions seront fondées sur les données, nous devons veiller à ce que les minorités de l'ensemble des données ne soient pas privées de leurs droits.
Prenons l'exemple d'un algorithme de reconnaissance faciale qui avait été formé uniquement avec des images de modèles à la peau claire. Lorsque l'algorithme d'IA rencontre un utilisateur à la peau noire, il peut mal l'identifier ou même ne pas le reconnaitre du tout. Imaginez alors quel serait l'impact si cette technologie de reconnaissance faciale de l'IA devenait le fondement des systèmes d'embauche ou de rémunération ? De cette façon, certains groupes peuvent être désavantagés, subir une mauvaise expérience utilisateur ou même se voir refuser l'accès à un service. La discrimination n'est peut-être pas délibérée, mais l'impact est, lui, tout aussi dommageable.
Les préjugés inconscients de l'IA sont fondamentalement liés à un problème de données. Sans une vaste base de données diversifiées et complètes, il existe un risque réel que l'IA de de demain crée automatiquement les gagnants et les perdants de la société sans prendre en compte le contexte dans son ensemble. Il est donc crucial que les entreprises et les organisations se procurent les bases de données les plus grandes et diversifiées possibles.
Bien entendu, elles devront également s'assurer que leurs solutions d'IA peuvent utiliser toutes ces données efficacement. Cela signifie des outils et des politiques de gestion des données solides, garantissant que les données sont classées, consolidées et simplifiées pour l'utilisation de l'intelligence artificielle.
La diversité des données
Collecter un maximum de données n’est pas la solution la plus simple. Ce n'est pas parce que vous disposez de plus de données qu’une entreprise moyenne, que l'ensemble des données est de meilleure qualité ou produira des résultats plus justes. Les services des Ressources Humaines du secteur de l'ingénierie par exemple, peuvent disposer d'une grande quantité de données historiques sur lesquelles s'appuyer. Mais si le secteur a toujours été dominé par les hommes, les femmes peuvent avoir plus de difficulté à apparaître comme des candidates idéales à un algorithme d'IA.
La meilleure chose à faire pour lutter contre les préjugés inconscients de l'IA est d'en être conscient. Trop d'entreprises traitent l'IA comme une boîte noire d'entrées et de sorties, mais pour garantir la justesse algorithmique, il faut bien comprendre comment la solution fonctionne et comment elle interagit avec les données. Pendant la phase de conception, ayez une idée claire des résultats que vous voulez éviter et de ceux que vous voulez atteindre. Appliquez ensuite cette justification à l'ensemble de données à partir desquelles l'IA s'entraînera, en assurant une représentation équitable pour tous les groupes sociaux, raciaux et de genre.
La façon dont une entreprise décide de ce qui est " juste " est un sujet beaucoup plus vaste et nuancé que la question des préjugés de l'IA. L'éthique variera d'une entreprise à l'autre, c'est donc aux dirigeants et à leurs employés d'élaborer un cadre éthique sur lequel ils pourront s'entendre et qui influencera ensuite leurs solutions. Cependant, la transparence est essentielle : aucune entreprise ne devrait avoir peur d'expliquer au public ou à ses employés comment ces décisions sont prises ou comment elles sont mises en œuvre.
Une approche verticale est rarement la meilleure approche. Ce qui peut sembler juste à une personne est probablement discutable ou erroné pour une autre. Une bonne façon de créer un consensus est d'établir un comité sur la diversité, composé d'intervenants de l'ensemble de votre entreprise. Les décisions de ce comité peuvent ensuite être traduites dans la solution d'IA.
Tous trop humain
Toutefois, pour utiliser l'IA de façon éthique à l'avenir, il faudra plus qu'une simple prise de conscience. Dans une certaine mesure, les entreprises des secteurs privés et publics devront changer leurs perspectives. De nombreuses entreprises sont attachées à un mélange de culture et de politique pour mener à bien une tâche spécifique, que ce soit pour créer des profits ou pour atteindre des quotas. Souvent, toutes les autres considérations deviennent secondaires ou sont complètement oubliées.
De telles organisations peuvent réussir, mais leurs solutions d'IA ont peu de chances de prendre les meilleures décisions en ce qui concerne la société dans son ensemble. Avec le temps, cette orientation restrictive pourrait creuser un fossé entre l'entreprise et ses clients. Au fur et à mesure que les abus sont commis par des solutions d'IA, ils seront révélés, et l’entreprise pourrait rapidement devenir une cible pour le législateur.
Décider de ce que vous voulez réellement réaliser avec une solution d'IA est probablement le facteur le plus important pour déterminer si ses résultats seront éthiques. Si votre objectif est uniquement de faire des profits ou d'atteindre un quota, les décisions de votre IA auront moins de chances d'être éthiques. Une entreprise qui peut utiliser l'IA atteindra probablement son objectif, mais ce dernier est-il louable ?
Une compagnie financière peut explorer comment elle peut tirer un meilleur rendement de ses prêts, de sorte qu'elle conçoive une solution d'IA qui identifie ceux qui ont le plus de chances de payer. Pourtant, si cette solution prend la décision en fonction des caractéristiques des demandeurs, elle pourrait facilement être discriminatoire envers certains groupes et leur refuser des prêts, quelle que soit leur capacité à payer.
En fin de compte, pour créer une intelligence artificielle qui prenne des décisions plus « humaines » et compatissantes, les particuliers devront commencer à se comporter moins comme des machines. Les chefs d'entreprise ne doivent pas aborder l'IA avec un seul objectif à atteindre, mais être conscients des nombreux impacts que l’IA peut avoir sur les personnes et leurs clients. La compréhension des nuances et du contexte est l'un des principaux avantages humains par rapport aux machines, il est donc important que nous l'exercions. Les données confèrent un grand pouvoir et avec ce dernier, il doit y avoir une responsabilité et un but plus large que le profit.
Bien qu'il soit difficile à admettre, les préjugés inconscients font parties de nous. Certains préjugés sont aussi bien liés à notre pensée que le code est programmé dans un logiciel. La seule façon de le vaincre c’est de reconnaître son existence et d'élaborer des stratégies qui limitent son impact sur nos décisions. Mais cela ne se fera pas du jour au lendemain : il faut le former de la même manière que nous formons l'IA pour obtenir les résultats que nous voulons.
À propos de Veritas
Veritas Technologies est un leader mondial en matière de protection et de disponibilité des données. Plus de 50 000 entreprises, dont 99% de celles issues du classement Fortune 100, nous font confiance pour simplifier la gestion des données et la complexité informatique. Notre Enterprise Data Services Platform automatise la protection et la récupération des données partout où elles se trouvent, assure la disponibilité 24h/24 et 7j/7 des applications sensibles et fournit aux entreprises les informations dont elles ont besoin pour se conformer à l'évolution des réglementations relatives aux données. Avec une réputation de fiabilité et un modèle de déploiement adapté à tous les besoins, Veritas prend en charge plus de 500 sources de données et plus de 150 types de stockage, dont 60 clouds.
veritas.com
Déclarations prévisionnelles : Toute indication prospective des plans pour les produits est préliminaire et toutes les dates de sortie futures sont provisoires et peuvent être modifiées à la seule discrétion de Veritas. Tout lancement futur du produit ou toutes modifications en matière de capacité, de fonctionnement ou des fonctionnalités du produit font l'objet d'une évaluation continue par Veritas, et peuvent ou non être mises en œuvre, ne doivent pas être considérées comme des engagements fermes de Veritas, ne doivent pas être prises en compte lors des décisions d’achat. Elles ne peuvent être incorporées dans aucun contrat
Veritas, le logo Veritas et NedBackup sont des marques commerciales ou des marques déposées de Veritas Technologies LLC ou de ses filiales aux États-Unis et dans d’autres pays. Les autres noms peuvent être les marques déposées de leurs propriétaires respectifs.
Finyear & Chaineum
Lisez gratuitement le quotidien Finyear & sa newsletter quotidienne.
Recevez chaque matin par mail la newsletter Finyear, une sélection quotidienne des meilleures infos et expertises en finance digitale, corporate finance & crypto finance.
Read for free The daily newspaper Finyear & its daily newsletter.
Receive the Finyear's newsletter every morning by email, a daily snapshot of the best news and expertise in digital finance, corporate finance & crypto finance.
------------------------
Chaineum :
Fondée en 2015, Chaineum est une boutique STO offrant une expertise de premier plan en matière d’ICO et STO, avec une vision stratégique orientée tant vers le métier de ses clients que sur la technologie blockchain. A ce titre, Chaineum a participé à la mise en œuvre de bonnes pratiques dans le secteur (ICO Charter, Security Token Network).
La division services blockchain de Chaineum, développe la technologie Chaineum Segment, une blockchain privée orientée objets.
About Chaineum:
Founded in 2015, Chaineum is a STO Boutique with a strong expertise in ICO and STO, and a strategic focus on both its clients' business and blockchain technology. As such, Chaineum paved the way in the implementation of certain best practices in this sector (ICO Charter, Security Token Network).
Chaineum's blockchain services division, is developing Chaineum Segment technology, an object-oriented private blockchain.
-------------------------
Recevez chaque matin par mail la newsletter Finyear, une sélection quotidienne des meilleures infos et expertises en finance digitale, corporate finance & crypto finance.
Read for free The daily newspaper Finyear & its daily newsletter.
Receive the Finyear's newsletter every morning by email, a daily snapshot of the best news and expertise in digital finance, corporate finance & crypto finance.
------------------------
Chaineum :
Fondée en 2015, Chaineum est une boutique STO offrant une expertise de premier plan en matière d’ICO et STO, avec une vision stratégique orientée tant vers le métier de ses clients que sur la technologie blockchain. A ce titre, Chaineum a participé à la mise en œuvre de bonnes pratiques dans le secteur (ICO Charter, Security Token Network).
La division services blockchain de Chaineum, développe la technologie Chaineum Segment, une blockchain privée orientée objets.
About Chaineum:
Founded in 2015, Chaineum is a STO Boutique with a strong expertise in ICO and STO, and a strategic focus on both its clients' business and blockchain technology. As such, Chaineum paved the way in the implementation of certain best practices in this sector (ICO Charter, Security Token Network).
Chaineum's blockchain services division, is developing Chaineum Segment technology, an object-oriented private blockchain.
-------------------------
No Offer, Solicitation, Investment Advice, or Recommendations
This website is for informational purposes only and does not constitute an offer to sell, a solicitation to buy, or a recommendation for any security, nor does it constitute an offer to provide investment advisory or other services by FINYEAR.
No reference to any specific security constitutes a recommendation to buy, sell or hold that security or any other security.
Nothing on this website shall be considered a solicitation or offer to buy or sell any security, future, option or other financial instrument or to offer or provide any investment advice or service to any person in any jurisdiction.
Nothing contained on the website constitutes investment advice or offers any opinion with respect to the suitability of any security, and the views expressed on this website should not be taken as advice to buy, sell or hold any security. In preparing the information contained in this website, we have not taken into account the investment needs, objectives and financial circumstances of any particular investor.
This information has no regard to the specific investment objectives, financial situation and particular needs of any specific recipient of this information and investments discussed may not be suitable for all investors.
Any views expressed on this website by us were prepared based upon the information available to us at the time such views were written. Changed or additional information could cause such views to change.
All information is subject to possible correction. Information may quickly become unreliable for various reasons, including changes in market conditions or economic circumstances.
No reference to any specific security constitutes a recommendation to buy, sell or hold that security or any other security.
Nothing on this website shall be considered a solicitation or offer to buy or sell any security, future, option or other financial instrument or to offer or provide any investment advice or service to any person in any jurisdiction.
Nothing contained on the website constitutes investment advice or offers any opinion with respect to the suitability of any security, and the views expressed on this website should not be taken as advice to buy, sell or hold any security. In preparing the information contained in this website, we have not taken into account the investment needs, objectives and financial circumstances of any particular investor.
This information has no regard to the specific investment objectives, financial situation and particular needs of any specific recipient of this information and investments discussed may not be suitable for all investors.
Any views expressed on this website by us were prepared based upon the information available to us at the time such views were written. Changed or additional information could cause such views to change.
All information is subject to possible correction. Information may quickly become unreliable for various reasons, including changes in market conditions or economic circumstances.